В 2022 году, когда началась война между Россией и Украиной, социальные сети были заполнены низкокачественными фейковыми изображениями — будь то фотоманипуляции, созданные в Photoshop, или неправильно маркированные кадры из видеоигр, фильмов или старых новостей. Сегодня те же методы вновь используются в контексте конфликта в Иране, но на этот раз появился новый тип обмана, который в 2022 году еще не был широко распространен: AI-инструменты, доступные любому желающему, позволяют легко создавать высококачественные видео и изображения, которые трудно отличить от настоящих.
Профессор цифровой криминалистики из Калифорнийского университета в Беркли Хани Фарид отметил, что десять лет назад подобные фейки были редкими и быстро разоблачались; сейчас же их сотни, и степень их реалистичности поражает. «Они не только выглядят правдоподобно, но и продолжают развиваться — глубоко влияют на людей. Люди верят и продолжают распространять их.»
Распространение генеративного AI значительно снизило порог для создания подделок
Ведущий журналист BBC Verify, Шаян Садаризаде, который давно занимается отслеживанием фейковых новостей с полей боевых действий, заявил, что за последний год ключевым изменением стало значительное снижение порога доступа к генеративному AI: «Теперь любой может создавать очень убедительные видео и изображения, которые выглядят как крупные боевые сцены, и их трудно отличить от настоящих невооруженным глазом или непрофессионалом.»
Менее чем через две недели после начала конфликта в Иране эксперты, включая Садаризаде, подтвердили, что на различных платформах было собрано миллионы просмотров нескольких AI-сгенерированных фейковых видео.
Какие фейковые изображения сейчас распространяются?
Обнаруженные AI-фальсификации охватывают широкий спектр, включая:
Вымышленные кадры ракетных обстрелов Ирана по Тель-Авиву
Панические сцены бегства людей с аэропорта Тель-Авива во время атаки
Видео, где американские спецназовцы ведут под охраной иранских солдат
«Видео с камер наблюдения», утверждающие, что иранские военные объекты были разрушены (три из них — AI-сгенерированные, одно — реальное событие прошлого года)
Движущиеся кадры американских войск на земле в Иране
Обломки американского вертолета, проходящие по улицам Тегерана
Что касается статичных изображений, то появились кадры американских баз и посольства США, охваченных огнем после атаки Ирана, изображение, где верховный лидер Хаменеи прижат к обломкам, а также сцены скорби и похорон погибших иранских граждан. Даже некоторые СМИ, связанные с иранским правительством, публиковали поддельные спутниковые снимки, якобы показывающие повреждения американской базы в Бахрейне.
Это лишь вершина айсберга — на данный момент распространяется множество фейков, связанных с Ираном.
Недостаточный контроль платформ усложняет борьбу с фейками
Несмотря на то, что Садаризаде и его коллеги ежедневно разоблачают новые фейки, их количество растет быстрее, чем удается их опровергать, а уровень реалистичности таков, что обычные пользователи с трудом могут отличить их при быстром просмотре.
Многие широко распространенные фейки явно исходят от аккаунтов, поддерживающих Иран, с целью пропаганды. Но мотивы создания других фейков зачастую трудно определить — это может быть ради трафика, влияния или прибыли, а может, потому что создание таких материалов стало очень простым.
Фарид отметил, что нынешняя ситуация очень сложная: «Контент становится все более правдоподобным, их количество растет, и они проникают все глубже — это реальность нашего времени, и она очень хаотична.»
Платформа X на прошлой неделе объявила, что если платные авторы публикуют неотмеченные AI-источники боевых видео, их доходы будут приостановлены на 90 дней, а при повторных нарушениях — аккаунт будет заблокирован навсегда. Однако Фарид сомневается в эффективности этой меры, а большинство пользователей X вообще не участвуют в платных программах для создателей. TikTok и Meta (владеющая Facebook и Instagram) не прокомментировали ситуацию для CNN.
Еще более тревожно, что собственный AI-чатбот X, Grok, неоднократно критиковался Садаризаде за то, что он, наоборот, мешает проверке фактов — он ошибочно сообщает пользователям, что несколько AI-сгенерированных видео являются реальными.
Как не попасться на ложь?
Фарид признает, что даже несколько месяцев назад известные методы распознавания AI-фейков, например, по количеству пальцев или пропорциям тела, уже не работают, поскольку современные AI исправили эти очевидные ошибки.
Он советует получать информацию только из надежных источников — проверенных новостных медиа, а не от незнакомых аккаунтов в соцсетях. «В периоды глобальных конфликтов соцсети — не лучший источник информации.»
Для тех, кто все же часто пользуется соцсетями, эксперт рекомендует:
Замедлиться: при виде сенсационных боевых кадров сначала потратьте несколько секунд на проверку
Обратить внимание на детали: синхронность звука и изображения, соответствие характеристик кадра реальной ситуации, наличие водяных знаков или ошибок AI
Обратиться к профессиональным фактчекерам: проверить, есть ли мнения экспертов или авторитетных СМИ по данному видео
Обратить внимание на комментарии: иногда обычные пользователи могут указать на ошибки или несоответствия
Использовать AI-инструменты для проверки: хотя они не идеальны, все же могут помочь
Тревожные перспективы и будущие вызовы
Садаризаде призывает всех «учиться видеть» и распознавать признаки AI-контента. Но он также признает: «Обнаружение AI-генерированного контента становится все сложнее, и тенденция показывает, что в будущем это будет только усложняться.»
Под давлением постоянного развития генеративных AI и слабого регулирования платформ, цифровая сфера фейковых новостей расширяется с невиданной скоростью, а каждый пользователь смартфона — это участник этой информационной битвы.
Эта статья о распространении AI-фейков в военных изображениях: как ложные новости о конфликте в Иране захватывают соцсети, впервые опубликована на ABMedia.