Искусственный интеллект в роли психолога: скрытые угрозы конфиденциальности
Популярность цифровых помощников на основе нейросетей растёт, однако их применение для психологической поддержки сопряжено с рисками несанкционированного доступа к личной информации. Такое мнение выразил Юрий Силаев, руководитель лаборатории доверенного ИИ в РТУ МИРЭА.
Специалист пояснил, что большинство платформ машинного обучения сохраняют запросы пользователей для доработки алгоритмов. При недостаточной анонимизации конфиденциальные беседы — включая обсуждение душевных переживаний — могут сохраниться в системных журналах или стать частью публичных массивов информации.
Дополнительную проблему создаёт практика предоставления доступа к пользовательским данным сотрудникам компаний-разработчиков для анализа работы сервисов, что увеличивает вероятность внутренних инцидентов.
“Технические недочёты в защите также вызывают опасения. Некорректная настройка облачных ресурсов или интерфейсов программирования иногда приводит к утечке переписок. Известны ситуации, когда ошибки конфигурации делали базы данных доступными из глобальной сети”, — пояснил Силаев.
Эксперт отдельно выделил угрозы целевых атак на алгоритмы искусственного интеллекта: используя специальные техники, злоумышленники могут извлекать фрагменты учебных данных и восстанавливать элементы приватных бесед.
Традиционные киберугрозы — такие как фишинг или компрометация учётных записей — также остаются актуальными. Получив контроль над аккаунтом, злоумышленник получает доступ ко всей истории общения с цифровым помощником.
Для снижения рисков специалист рекомендует отдавать предпочтение сервисам с чёткой политикой защиты информации и применением сквозного шифрования.
“Целесообразно регулярно очищать журнал бесед и избегать передачи ИИ-системам сведений, позволяющих установить личность. Наиболее безопасным подходом остаётся обработка данных непосредственно на устройстве без их передачи на серверы”, — подчеркнул исследователь.
По оценке специалиста, технологии искусственного интеллекта действительно могут оказать психологическую поддержку, однако пользователям необходимо осознавать сопутствующие риски и тщательно подбирать сервисы.
Ранее представитель научно-исследовательского института Machine Intelligence Research Institute и бывший технический специалист IT-корпораций Нейт Соарес озвучил мнение, что вероятность катастрофических последствий от развития ИИ-технологий превышает “как минимум 95%”.