Dilara Karataş,Marina Mussa
18 Август 2025•Обновить: 19 Август 2025
Созданные с помощью искусственного интеллекта фотографии, поддельные голоса и deepfake-видео превращаются в «оружие нового поколения», сфера охвата которого простирается от избирательных кампаний до зон боевых действий. Такого рода контент становится «наиболее эффективным и опасным инструментом» манипуляции и мошенничества.
По данным исследовательской компании Sensity AI, отслеживающей угрозы, связанные с ИИ, в ходе конфликта России и Украины украинских политиков и военных изображали в роликах, где они якобы «призывают к капитуляции» или «признаются в совершении военных преступлений».
В Тайване во время выборов распространялись видео с поддельными речами политиков, вымышленными скандалами и постановочными «оговорками», созданные с помощью китайских ИИ-инструментов.
В Японии искусственный интеллект использовался для генерации фальшивых изображений стихийных бедствий — ядерных аварий или наводнений — чтобы вызвать панику среди населения.
Эти случаи, отмечают эксперты, демонстрируют опасность бесконтрольного применения технологий искусственного интеллекта как «оружия нового поколения».
Распознать становится невозможно
Соучредитель Sensity AI Франческо Кавалли в интервью агентству «Анадолу» заявил, что по мере развития технологий становится все труднее различить поддельный и реальный контент.
Он отметил, что для выявления ИИ-подделок можно обращать внимание на несоответствия в освещении лица, чрезмерно сглаженную кожу, неестественные моргания или движения рта в видео.
«ИИ-контент, особенно в низком разрешении или сжатом формате, может ускользать от человеческого глаза. Поддельные голоса теперь стало практически невозможно отличить от настоящих», — сказал Кавалли.
Наибольшую угрозу, по его словам, представляют именно синтезированные голоса. Так, мошенник, сымитировавший голос госсекретаря США Марко Рубио, через мессенджер Signal создал фальшивый аккаунт и установил контакт с главами МИД 3 стран, конгрессменом и губернатором.
«Подделка голоса используется для того, чтобы убедить собеседника в том, что он разговаривает с надежным человеком», — подчеркнул эксперт.
Манипуляция выборами и войной
Кавалли отметил, что Midjourney и Runway становятся настолько совершенными, что даже подготовленные специалисты рискуют быть обманутыми.
«Мы зафиксировали использование ИИ-контента для вмешательства в выборы, организации фальшивых пресс-конференций политиков, рекламирующих мошеннические платформы, а также для распространения поддельных военных кадров, призванных манипулировать общественным мнением», — рассказал он.
По его словам, в Китае, Японии и на Тайване выявлены примеры активного применения ИИ-пропаганды в целях дестабилизации обществ и давления на противников. «Это не гипотетическая угроза, а глобальное оружие, которое уже используется в конфликтах», — добавил эксперт.
Видеть больше не значит верить
Кавалли подчеркнул необходимость проактивного контроля и международного сотрудничества в борьбе с ИИ-дезинформацией.
По его словам, большинство платформ пока не располагают надежными системами судебной экспертизы для масштабного выявления поддельного контента, а некоторые компании сознательно получают прибыль от мошеннических кампаний.
«Маркировка ИИ-контента — не решение. Важно не сам факт создания, а способ и контекст применения. Например, за использование соцсетей для размещения deepfake-рекламы мошенников должны вводиться жесткие санкции. Платформы обязаны действовать на опережение, а не ждать пользовательских жалоб», — отметил он.
По данным Sensity AI, разработаны четырехэтапные системы анализа, включающие распознавание манипуляций с лицом, выявление полностью сгенерированных изображений, проверку синтезированных голосов и судебную экспертизу. Эти данные уже используются в официальных расследованиях и судах.
«Доверие к визуальным медиа стремительно падает. Людей необходимо обучать рискам ИИ-подделок, а компании, журналисты и исследователи должны быть обеспечены инструментами для их выявления. В будущем “увидеть” больше не будет означать “поверить”», — заключил Кавалли.