Share
Рубрика: Общество

Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

Искусственный интеллект в роли психолога: скрытые угрозы конфиденциальности

Проблемы безопасности при использовании виртуальных консультантов

Популярность цифровых помощников на основе нейросетей растёт, однако их применение для психологической поддержки сопряжено с рисками несанкционированного доступа к личной информации. Такое мнение выразил Юрий Силаев, руководитель лаборатории доверенного ИИ в РТУ МИРЭА.

Специалист пояснил, что большинство платформ машинного обучения сохраняют запросы пользователей для доработки алгоритмов. При недостаточной анонимизации конфиденциальные беседы — включая обсуждение душевных переживаний — могут сохраниться в системных журналах или стать частью публичных массивов информации.

Дополнительную проблему создаёт практика предоставления доступа к пользовательским данным сотрудникам компаний-разработчиков для анализа работы сервисов, что увеличивает вероятность внутренних инцидентов.

“Технические недочёты в защите также вызывают опасения. Некорректная настройка облачных ресурсов или интерфейсов программирования иногда приводит к утечке переписок. Известны ситуации, когда ошибки конфигурации делали базы данных доступными из глобальной сети”, — пояснил Силаев.

Эксперт отдельно выделил угрозы целевых атак на алгоритмы искусственного интеллекта: используя специальные техники, злоумышленники могут извлекать фрагменты учебных данных и восстанавливать элементы приватных бесед.

Традиционные киберугрозы — такие как фишинг или компрометация учётных записей — также остаются актуальными. Получив контроль над аккаунтом, злоумышленник получает доступ ко всей истории общения с цифровым помощником.

Для снижения рисков специалист рекомендует отдавать предпочтение сервисам с чёткой политикой защиты информации и применением сквозного шифрования.

“Целесообразно регулярно очищать журнал бесед и избегать передачи ИИ-системам сведений, позволяющих установить личность. Наиболее безопасным подходом остаётся обработка данных непосредственно на устройстве без их передачи на серверы”, — подчеркнул исследователь.

По оценке специалиста, технологии искусственного интеллекта действительно могут оказать психологическую поддержку, однако пользователям необходимо осознавать сопутствующие риски и тщательно подбирать сервисы.

Ранее представитель научно-исследовательского института Machine Intelligence Research Institute и бывший технический специалист IT-корпораций Нейт Соарес озвучил мнение, что вероятность катастрофических последствий от развития ИИ-технологий превышает “как минимум 95%”.