Прогресс технологий искусственного интеллекта порождает существенные вызовы для цифровой безопасности. Судя по социологическим исследованиям, большинство граждан России испытывают тревогу относительно данной технологии в контексте риска мошеннических действий. При этом те же самые алгоритмы уже применяются отечественными профессионалами для создания средств, которые противостоят злонамеренным атакам. Специалисты в области кибербезопасности рассказали о том, как интеллектуальные системы сегодня противодействуют фейковому контенту, фишингу и цифровому обману.
Средства массовой информации продолжают освещать новые способы цифрового мошенничества с применением интеллектуальных алгоритмов. Например, в середине октября специалисты по цифровой безопасности предупредили граждан о случаях использования поддельных видеоизображений известных личностей. Преступники создают реалистичный контент для распространения дезинформации, такой как анонсы несуществующих концертов международных артистов. Среди примеров назывался случай с Канье Уэстом.
Злоумышленники применяют интеллектуальные технологии и в других сферах. Аналитики F6 обнаружили схему обмана при публикации объявлений о съёме жилья. Преступные группы разрабатывают поддельные платформы, копирующие легальные сервисы, наполняя их снимками интерьеров, которые часто созданы алгоритмами. Подобные изображения обладают уникальностью, что затрудняет их распознавание как фальсификаций.
Большинство граждан России воспринимают ИИ как значительную угрозу. Согласно исследованию сервиса коммуникаций «Контур.Толк» совместно с продуктовой группой «Контур.Эгида», где участвовали 1,2 тыс. работающих граждан, половина респондентов опасается поддельного контента из-за риска финансового обмана – потери сбережений или оформления кредита мошенниками, тогда как 43% беспокоятся, что злоумышленники могут использовать технологии для манипуляций с их близкими.
Однако некоторые демонстрируют оптимистичное отношение: 22% видят положительные и отрицательные стороны развития технологий, а 16% относятся к интеллектуальным системам спокойно.
Профессионалы отрасли единодушно отмечают двойственную природу технологий, которые могут служить как вредоносным, так и защитным целям.
Руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров выделил ключевые риски: усовершенствованные фишинговые атаки, методы социальной инженерии, поддельный медиаконтент, автоматизацию вредоносных программ и адаптацию кибератак. При этом эксперт подчеркнул, что те же инструменты уже задействованы в создании современных защитных платформ.
«Отечественные компании и госструктуры активно внедряют интеллектуальные системы кибербезопасности для нейтрализации новых угроз. Среди них – обнаружение утечек данных, анализ поведения в DLP-системах, защита от фишинга и мошенничества, выявление кибератак и противодействие фейковому контенту», – пояснил специалист.
Бизнес-сегмент
В настоящее время российские специалисты фокусируются на внедрении ИИ в продукты для корпоративных заказчиков, где профилактика мошенничества наиболее эффективна.
«Современные подходы, пришедшие на смену классическим антивирусам, основаны на поведенческом анализе вредоносных программ. Человеку сложно распознать эти паттерны, тогда как интеллектуальные алгоритмы выявляют их эффективно. Это принципиальное отличие от защитных технологий прошлого столетия», – комментирует эксперт по кибербезопасности F6 Сергей Золотухин.
По его словам, ключевой технологией с применением ИИ стала «песочница». Все документы, поступающие в корпоративные сети, сначала анализируются в изолированной среде, где алгоритмы выявляют признаки угрозы, и лишь после успешной проверки передаются сотрудникам. Это позволяет блокировать опасные файлы.
«Сейчас подобные системы на базе машинного обучения защищают, в частности, банковские онлайн-платформы. Это крайне актуально для России, где онлайн-банкинг пользуется повсеместным распространением», – добавил Золотухин.
Эксперт отметил, что финансовые организации также применяют ИИ-системы для анализа поведения клиентов. Отслеживая аномалии – такие как нехарактерную работу с клавиатурой или мышью – алгоритмы могут определить подмену пользователя. Технология интегрирована в платформу и не требует дополнительных действий со стороны клиента.
«Эти инструменты дополняют стандартные антифрод-системы, отслеживающие очевидные признаки мошенничества – операции в необычное время, крупные суммы или серии подозрительных транзакций. Интеллектуальные системы анализируют саму сессию взаимодействия с банком», – пояснил специалист.
Эволюция поддельного контента
Профессионалы отмечают: совершенствование нейросетей улучшает качество фейкового контента, что требует постоянного развития методов его обнаружения.
«Раньше подделки вычисляли по неестественной форме зрачков, ненатуральному освещению или отсутствию мимических морщин. Защитные системы обучали распознавать эти признаки автоматически. Однако технологии развиваются, – отметил Сергей Золотухин. – Если ранее синтезированный голос определяли по частотным характеристикам, то современные алгоритмы работают с реальными голосовыми образцами, взятыми из мессенджеров или телепередач. Это новый вызов для защитных систем».
Директор по продукту Staffcop Даниил Бориславский отметил, что технологии противодействия фейкам требуют интеграции в бизнес-инструменты – системы видеоконференций или мессенджеры, что сопряжено со значительными ресурсными затратами.
«Внедрение таких решений возможно либо как внутренняя разработка, либо через подписные сервисы. Для безопасных коммуникаций технология должна быть встроена непосредственно в платформу, что создаёт дополнительные сложности для разработчиков», – пояснил эксперт.
Фишинговая защита
Ещё одним направлением применения ИИ стало выявление фишинговых ресурсов. Как отметил руководитель R&D-направления Центра технологий кибербезопасности ГК «Солар» Максим Бузинов, целевые фишинговые атаки, как и фейковый контент, остаются дорогостоящим инструментом преступников. При этом защита от них основана на интеллектуальных алгоритмах.
«Чтобы обойти автоматические системы обнаружения, злоумышленники манипулируют изображениями – например, изменяют угол наклона элементов. Для стандартных алгоритмов поиска такие модификации делают картинку неузнаваемой», – рассказал Сергей Золотухин.
Интеллектуальные системы обучают распознавать незаконное использование брендов через поиск визуальных аналогий. Преступники исторически использовали замену символов в доменных именах – например, подменяя латинские «I» и «l». Сейчас аналогичные методы применяются к изображениям, что требует новых подходов к их выявлению.
«Над этим активно работают эксперты, и современные технологии уже способны обнаруживать фишинговые сайты с модифицированными визуальными элементами», — подчеркнул Золотухин.
Персональные решения
Хотя большинство современных защитных продуктов ориентировано на бизнес, эксперты допускают появление аналогичных ИИ-решений для рядовых пользователей. Однако здесь существуют определённые сложности.
«У обычных граждан отсутствуют сложные информационные системы, требующие защиты. Основные цели — сохранность финансов, персональных данных и репутации. Для этого существуют антифрод-механизмы банков, операторов связи и образовательные программы по цифровой грамотности», — перечислил Даниил Бориславский.
Максим Бузинов добавил, что существующие комплексные решения часто излишне сложны для персонального использования из-за необходимости адаптации под специфику заказчика.
При этом защита частных пользователей и малого бизнеса остаётся перспективным направлением развития, которое будет развиваться в ближайшие годы.
«Сейчас разрабатываются прототипы упрощённых решений. Например, мы предлагали концепцию облегчённой версии DLP-системы Solar Dozor для малого бизнеса и частных лиц. Это инструменты базового уровня для контроля за перемещением конфиденциальной информации. Вероятно, в будущем такие продукты станут более доступными», — заключил эксперт.
