Злоумышленники всё чаще применяют дипфейки — видеомонтаж на основе искусственного интеллекта, где преступники имитируют внешность и голоса близких жертвы или авторитетных лиц, в том числе государственных представителей. Специалисты в области цифровой безопасности поделились методами выявления подделок: ключевые маркеры искусственного происхождения контента, рекомендации по визуальному анализу и случаи, когда целесообразно использовать специализированный софт.
Киберпреступники внедрили схему с нейросетевыми видеозаписями. На роликах в обращении к потенциальным пострадавшим упоминаются несуществующие компенсации или доплаты к доходу. С помощью ИИ-инструментов изменяются голос и облик человека в кадре — создаётся иллюзия, что обещания исходят от официальных лиц.
Как уточняется в сообщении МВД РФ, распространение таких материалов происходит через email-рассылки. В письмах содержится ссылка, при переходе по которой на устройство загружается вредоносное ПО.
Далее жертве поступает звонок от афериста, позиционирующего себя как финансового эксперта. Злоумышленник детализирует условия выплат, предлагает заключить «государственный контракт», оформить заём или перевести средства на «защищённый» счёт.
Эксперты пояснили, каким образом можно минимизировать риски при столкновении с дипфейками и какие инструменты для этого существуют.
— Какие особенности указывают на ИИ-генерацию видео или изображения?
Антон Терешонков, директор по безопасности «Кибердома»:
— Наблюдайте за частотой моргания. В живом видео люди совершают 15–20 миганий в минуту. В подделках либо отсутствует моргание, либо оно выглядит механистичным и неестественным.
Во-вторых, проверяйте синхронизацию артикуляции губ и звуковой дорожки. Даже в профессиональных фейках заметны микроскопические задержки между движением губ и произносимыми фразами. Естественная мимика задействует всё лицо (щёки, подбородок, лоб), тогда как фальшивое часто ограничивается лишь областью рта.
Третий аспект — распределение света и теней. Алгоритмы некорректно воссоздают физику освещения: тени от носа или ушей не соответствуют направлению источника света, блики на стёклах неподвижны при движении головы.
Исследуйте границу между лицом и фоном — размытость, вибрацию контуров, несоответствие детализации. Изучите анатомические нюансы: пальцы, текстуру кожи (в подделках она излишне гладкая), детализацию волос.
Виталий Роговой, аспирант факультета безопасности ИТМО:
— Генеративные артефакты проявляются в фоне, деформациях черт лица. При полной симуляции сцены с зеркалом возможно появление случайного отражения. Зеркальные поверхности или стёкла очков могут демонстрировать несоответствия с окружением. Жесты выглядят скованными, голос — неестественным, без эмоциональных пауз.
Владимир Арлазаров, гендиректор Smart Engines, д.т.н.:
— С развитием технологий визуальное распознавание фейков усложняется. При частичной подмене лица без профессиональных навыков и детального анализа светотеневых паттернов человеку практически невозможно достоверно идентифицировать подлог.
Поэтому эффективнее сосредоточиться на цифровой гигиене: критически оценивать неожиданные звонки, ссылки и особенно требования срочных переводов — даже при кажущейся достоверности голоса и изображения.
Андрей Масалович, президент консорциума «Инфорус»:
— Небрежно сделанные фейки обнаруживаются по метаданным: несоответствию даты или места съёмки. Признак монтажа — различия во времени создания и редактирования файла. Однако получить такие данные не всегда реально.
Проверяйте историю аккаунтов в мессенджерах: дату регистрации, географию, факты смены имени или фото. Профиль, позиционирующийся как российский, но ведущий активность из-за рубежа, вызывает подозрения. Это не панацея против опытных мошенников, но повышает защищённость.
Частая пересылка дипфейков в чатах повышает риски — ограничивайте репосты и переходы по ссылкам. Помните: заманчивые льготы или сверхприбыльные схемы обычно оказываются обманом.
Целесообразно законодательно внедрить обязательную маркировку ИИ-контента — это позволит привлекать создателей дипфейков к ответственности.
— Существуют ли автоматизированные системы для детекции ИИ-видео? Насколько они эффективны?
А. Т.: — Точность автоматического анализа достигает 97–99% (российские VisionLabs, MTС Web Services; зарубежный Sensity AI). Для частных лиц доступны Undetectable AI и Hugging Face Deepfake Detector, но требуется ручная загрузка материалов.
Пока не разработано мобильных приложений для мгновенной блокировки фейков в мессенджерах — детекторы отстают от эволюции генеративных моделей.
В. А.: — Технологии надёжной идентификации уже внедряются в банковские системы, госсервисы и инструменты верификации. Они обнаруживают подмену лиц, фальшивые документы, цифровую модификацию реквизитов.
Алгоритмы оценивают согласованность элементов кадра, сравнивают лицо с фото в документах, проверяют метаданные. Подобные системы предотвращают мошенничество с кредитами или несанкционированным доступом.
А. М.: — Существуют приложения для выявления признаков редактирования — например, по аномалиям в метаданных. Научные методы детекции работают, но массовых решений для рядовых пользователей пока нет.
В. Р.: — Современные системы биометрической аутентификации (например, для «Госуслуг») сталкиваются с трудностями. Даже стандартная обработка фото на смартфонах может расцениваться как модификация, приводя к ложным тревогам.
— Возможно ли внедрить автоматическую проверку на дипфейки в мессенджерах?
А. Т.: — Технологически реализуемо, но требует значительных ресурсов и замедлит доставку сообщений. End-to-end шифрование в WhatsApp*, Telegram ограничивает доступ к контенту без нарушения приватности. Корпоративные системы уже используют встроенную детекцию, а для массовых платформ актуальны двухфакторная аутентификация и обучение пользователей.
В. А.: — Идентификаторы могут функционировать либо на серверах мессенджеров (предварительная проверка контента), либо локально в приложении. Основные преграды — вопросы приватности, нагрузка на процессоры и ложные позитивные результаты. С технической точки зрения интеграция детекторов вполне выполнима.
В. Р.: — Внедрение возможно, но сохраняется проблема ложных тревог при обработке изображений стандартными фоторедакторами.
А. М.: — Платформы уже маркируют аккаунты с зарубежной активностью, подменными номерами, частой сменой фото или имени. Обозначение часто пересылаемых файлов также сигнализирует о риске. Однако массовое применение ИИ-детекторов пока маловероятно — 95% подобных бизнес-инициатив не достигают промышленного внедрения.
* Продукт Meta, деятельность признана экстремистской, запрещена на территории России по решению Тверского суда Москвы от 21.03.2022.
