У 2022 році, коли розпочалася війна між Росією та Україною, у соціальних мережах заполонили низькоякісні фальшиві зображення — будь то фотомонтажі, створені за допомогою Photoshop, або неправильно позначені кадри з відеоігор, фільмів чи старих новин. Тепер, у конфлікті в Ірані, знову з’явилися ті ж самі методи, але з новим типом обману, який ще не був поширений у 2022 році: будь-хто може легко освоїти AI-інструменти, що генерують високоякісні фальшиві відео та зображення, які важко відрізнити від справжніх.
Професор цифрової криміналістики Каліфорнійського університету в Берклі Хані Фарід зазначає, що десять років тому подібні фальшиві повідомлення були рідкістю і швидко викривалися; сьогодні ж їх сотні, і ступінь реалістичності вражає. «Це не просто реалістично, а й активно поширюється — глибоко впливає на людей. Вони вірять у це і продовжують поширювати.»
Поширення генеративного AI значно знизило бар’єри для створення фальшивок
Відповідальний репортер BBC Verify, який давно слідкує за фейковими новинами з бойових зон, Шаян Садарізаде повідомляє, що за останній рік найважливішим зміною стало значне зниження порогу доступу до генеративного AI. «Зараз будь-хто може створити переконливі відео та зображення, що виглядають як сцени з важливих бойових дій, і їх важко відрізнити від справжніх навіть неозброєним оком або непрофесійним поглядом.»
Менше ніж через два тижні після початку конфлікту в Ірані, експерти, зокрема Садарізаде, підтвердили, що кілька AI-генерованих фальшивих відео вже набрали десятки мільйонів переглядів у соцмережах.
Які фальшиві зображення поширюються?
Вже ідентифіковані AI-підробки охоплюють широкий спектр, зокрема:
вигадані кадри ракетних обстрілів Ірану по Тель-Авіву
паніка людей, що тікають з аеропорту Тель-Авів під час атаки
відео, де спецназ США затримують іранських солдатів із зброєю
«відеозаписи» з камер спостереження, що нібито показують знищення іранських військових об’єктів (з них три — AI-генеровані, один — реальний з минулого року)
мобільні колони американських військ у Ірані
кадри уламків американського вертольота, що падає, на вулицях Тегерана
Що стосується статичних зображень, то поширюються фото американських баз і посольств, що горять після атак Ірану, зображення лідера Хаменеї, що похований під уламками, та сцени скорботи іранських цивільних. Навіть є фальшиві супутникові карти, що нібито показують пошкодження американської бази в Бахрейні.
Це лише верхівка айсберга щодо поширення фейкових повідомлень, пов’язаних з Іраном.
Недосконалість платформ і слабкий контроль ускладнюють боротьбу з фейками
Хоча Садарізаде та інші щодня викривають нові фальшивки, їх кількість зростає швидше, ніж вдається їх спростовувати, і ступінь реалістичності настільки високий, що звичайний користувач важко відрізнити правду від брехні під час прокрутки стрічки.
Багато поширених фальшивих повідомлень походять від проросійських акаунтів і мають пропагандистську мету. Однак мотивація створення інших фейків важко визначити — можливо, це для залучення трафіку, впливу або прибутку, або просто через легкість їх створення.
Фарід підкреслює, що сучасна ситуація дуже складна: «Контент став ще більш реалістичним, їхня кількість зросла, і вони проникають глибше — це наш реальний світ сьогодні, і він дуже хаотичний.»
Платформи соцмереж, зокрема X (колишній Twitter), минулого тижня оголосили, що платні автори, які публікують бойові кадри без позначки AI, будуть позбавлені доходу на 90 днів, а повторне порушення призведе до постійної блокування. Однак Фарід сумнівається у ефективності цієї політики, а більшість користувачів X не входять до програми платних авторів. TikTok і Meta (власники Facebook і Instagram) не коментували запити CNN.
Ще гірше, що власний AI-чатбот X, Grok, вже неодноразово називали Садарізаде, який стверджує, що він лише погіршує ситуацію, неправильно інформуючи користувачів про те, що багато AI-генерованих відео — це реальні кадри.
Як уникнути обману фейками?
Фарід визнає, що навіть кілька місяців тому поширені «методи розпізнавання AI-зображень» вже майже не працюють. Раніше можна було звернути увагу на кількість пальців або пропорції тіла, але сучасний AI вже виправляє такі очевидні помилки.
Основний спосіб — активно отримувати інформацію з надійних джерел, таких як авторитетні новинні медіа, а не довіряти незнайомим акаунтам у соцмережах. «У часи глобальних конфліктів соцмережі — не джерело правдивої інформації.»
Для тих, хто все ще часто користується соцмережами, експерти радять:
знижувати швидкість: перед поширенням або довірям зображенням з бойових зон — кілька секунд перевірки
уважно дивитися на деталі: чи синхронізовані звук і зображення? чи відповідає зображення реальності? AI ще має недоліки, і деякі згенеровані кадри залишають водяні знаки
перевіряти фактчекінгові ресурси: чи є професійні фактчекери або експерти, які вже висловили свою думку щодо цього зображення
звертати увагу на коментарі: іноді звичайні користувачі можуть підказати важливі зауваження
використовувати інструменти для виявлення AI: хоча вони не ідеальні, але мають певну цінність
Майбутнє викликає тривогу, і виклики лише зростають
Садарізаде закликає всіх «навчитися розпізнавати AI-зміст», але водночас визнає: «Виявлення AI-генерованого контенту стає дедалі складнішим, і тенденція показує, що це буде лише ускладнюватися.»
За умов постійного розвитку генеративного AI і слабкого контролю платформ, цифровий простір фейкових новин розширюється з неймовірною швидкістю, і кожен користувач смартфона — на передовій цієї інформаційної війни.
Ця стаття про поширення AI-підробок у бойових зображеннях: як фейки з Ірану захоплюють соцмережі, вперше з’явилася на ABMedia.