Русский текст:
Несмотря на продолжающиеся дискуссии об утечках данных через нейросети, которые пока не получили окончательного подтверждения, эксперты призывают к осторожности. Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества, подчеркивает важность избегания рисков при взаимодействии с искусственным интеллектом.
Пользователям следует понимать, что загрузка конфиденциальной информации в ChatGPT и подобные ИИ-системы создает потенциальную угрозу ее неправомерного использования в будущем. Эксперт напоминает, что технологии развиваются стремительно, и сегодняшняя защита может оказаться уязвимой завтра.
«Категорически нельзя загружать данные, которые могут скомпрометировать вас или других людей», — акцентирует Кузьменко. К таким данным относятся: паспортные сведения, сетевые идентификаторы, платежные данные карт, медицинские записи, а также логины и пароли от различных сервисов. Любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред, также попадают в эту категорию.
Кузьменко добавляет, что наиболее безопасный сценарий общения с нейросетью — это использование обезличенных массивов данных. Это означает, что перед загрузкой необходимо тщательно удалить всю информацию, которая может прямо или косвенно указать на конкретного человека. Если возникнет сомнение в безопасности данных, лучше полностью воздержаться от использования ИИ для данной задачи и решить ее самостоятельно.
English Translation:
Despite ongoing discussions about potential data leaks through neural networks, which currently lack definitive confirmation, experts advise caution. Sergey Kuzmenko, Head of the Digital Expertise Center at Roskachestvo, emphasizes the importance of avoiding risks when interacting with artificial intelligence.
Users should understand that uploading confidential information to ChatGPT and similar AI systems creates a potential vulnerability for its unauthorized use in the future. The expert reminds us that technology evolves rapidly, and today`s security measures might become vulnerable tomorrow.
“It is strictly prohibited to upload data that could compromise you or others,” Kuzmenko stresses. This includes: passport details, network identifiers, payment card information, medical records, as well as logins and passwords for various services. Any other information that allows the identification of a specific individual and could potentially be used to cause harm also falls into this category.
Kuzmenko adds that the safest scenario for interacting with a neural network is to use anonymized datasets. This means that before uploading, all information that could directly or indirectly identify a specific person must be carefully removed. If there is any doubt about data safety, it is better to completely refrain from using AI for that task and resolve it independently.
