Обговорення: витік про механізм попереднього розгляду для ШІ у Білому домі; наступного дня після заяви Гассетт офіційно спростували

白宮AI預審機制討論

Директор NEC (Національної економічної ради Білого дому) Кевін Хассетт 7 травня під час інтерв’ю для Fox Business заявив, що адміністрація Трампа розробляє спосіб вимагати через адміністративний наказ, аби моделі ШІ проходили перевірку безпеки урядом перед їхнім публічним випуском, і проводив аналогію з тим, як FDA затверджує лікарські засоби перед виходом на ринок. Але, за повідомленням Politico від 8 травня, високопоставлені посадовці Білого дому згодом заявили, що ці слова були вирвані з контексту.

Хронологія події: «Нью-Йорк таймс» довела до публічного розкриття суперечностей у політиці Білого дому

4 травня 2026 року The New York Times повідомила, що Білий дім обговорює створення механізму попередньої перевірки перед випуском моделей ШІ, тоді це характеризували як «розглядають». 7 травня 2026 року Кевін Хассетт у межах інтерв’ю для Fox Business публічно заявив: «Ми вивчаємо, чи можемо ми через адміністративний наказ вимагати, щоб ШІ, який у майбутньому потенційно може створювати вразливості, був введений в експлуатацію лише після того, як він доведе свою безпеку — як препарати для FDA».

Пізно ввечері 7 травня 2026 року очільниця апарату Білого дому Сьюзі Уілз у дописі в X написала, що уряд «не відповідає за вибір переможців і переможених», і зазначила, що безпечно розгортувати сильні технології має «провідні американські інноватори, а не бюрократичні структури». Згідно з даними, що містяться в її офіційних записах акаунта, цей допис є четвертим публікаційним матеріалом з моменту створення акаунта Уілз.

За інформацією Politico, яку видання отримало від трьох поінформованих осіб без зазначення імен, Білий дім обговорює, щоб розвідслужби проводили попередню оцінку моделей ШІ до їхнього публічного випуску. Один із посадовців уряду США вказав у матеріалі, що метою цього, зокрема, є «гарантувати, що представники розвідки спершу вивчатимуть і використовуватимуть ці інструменти, перш ніж їхні опоненти на кшталт Росії та Китаю дізнаються про нові можливості».

Задіяні інституції та рамка політики

CAISI розширює добровільну угоду щодо безпекових оцінок

AI Standards and Innovation Center (CAISI) при Міністерстві торгівлі цього тижня оголосив, що уклав угоди про безпекові оцінки ШІ з Google DeepMind, Microsoft та xAI; сфера поширюється на те, що раніше вже включали OpenAI й Anthropic. Добровільна структура оцінювання CAISI запроваджена з 2024 року.

Заступниця міністра оборони публічно підтримує механізм попередньої оцінки

Заступниця міністра оборони Еміл Майкл 8 травня 2026 року під час виступу на AI-конференції у Вашингтоні публічно підтримала урядову попередню оцінку перед випуском моделей ШІ та в промові послалася на систему Anthropic Mythos як на приклад, заявивши, що відповідні моделі «згодом обов’язково з’являться», тож уряд має створити механізм реагування.

Політичне тло адміністрації Трампа та Anthropic

За повідомленням Politico, у березні 2026 року міністр оборони Піт Хегсетт, посилаючись на ризики для ланцюга постачання, додав Anthropic до переліку ризиків і заборонив використовувати її моделі для оборонних контрактів відомства. Після цього Трамп окремо розпорядився, щоб федеральні структури протягом шести місяців припинили використання продуктів Anthropic. Водночас Anthropic минулого місяця розкрила, що її система ШІ Mythos має потужні можливості для виявлення вразливостей у програмному забезпеченні, що виходить за межі безпекового порогу для публічного випуску; низка федеральних установ згодом подала заявки на підключення. 8 травня 2026 року OpenAI оголосила про обмежений прев’ю нового інструмента GPT-5.5-Cyber, який має виявляти та виправляти мережеві вразливості.

Позиції індустрії щодо протистояння механізмам обов’язкових перевірок

Голова Інформаційно-технологічного та інноваційного фонду (ITIF) Даніель Кастро в матеріалі Politico заявив: «Якщо перед виходом на ринок можна відмовити в погодженні, то це проблема для будь-якої компанії. Якщо одному конкуренту нададуть погодження, а іншому — ні, то різниця в кілька тижнів або місяців щодо доступу до ринку матиме величезний вплив». Серед донорів ITIF — Anthropic, Microsoft і Meta.

У тому ж матеріалі один із високопоставлених посадовців Білого дому сказав: «Так, є один-два дуже палкі ентузіасти урядового регулювання, але їх — лише кілька». Цей посадовець отримав анонімність через потребу описати чутливі обговорення політики.

Поширені запитання

Коли й де Кевін Хассетт висловився щодо попереднього розгляду ШІ?

За повідомленням Politico, 7 травня 2026 року під час інтерв’ю для Fox Business Кевін Хассетт публічно заявив, що уряд розробляє адміністративний наказ, аби вимагати від моделей ШІ проходження урядової безпекової перевірки перед публічним випуском, і проводив аналогію з процедурою затвердження FDA для лікарських засобів.

На чому ґрунтується заперечення Білого дому щодо слів Хассетта?

За повідомленням Politico від 8 травня 2026 року, високопоставлений посадовець Білого дому сказав, що слова Хассетта були «трохи вирвані з контексту», а напрям політики Білого дому — це створення партнерств із компаніями, а не впровадження урядового регулювання. Окремим дописом очільниця апарату Білого дому Сьюзі Уілз підтвердила, що уряд не втручається в ринковий вибір.

Які нові угоди щодо безпекових оцінок ШІ додано CAISI цього тижня?

Згідно із заявою CAISI цього тижня, додаткові угоди охоплюють Google DeepMind, Microsoft та xAI, а також OpenAI й Anthropic, які вже були в межах покриття раніше. Добровільна рамка оцінювання запроваджена з 2024 року.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Агент Hermes очолює сьогодні рейтинг використання OpenRouter: 271 мільярд токенів, випередивши OpenClaw

За даними Nous Research, Hermes Agent сьогодні очолив рейтинг глобального використання токенів додатками OpenRouter: 271 мільярд токенів, випередивши OpenClaw, який посів друге місце з 245 мільярдами токенів. Kilo Code (149 мільярдів) і Claude Code (79 мільярдів) стали третіми та четвертими відповідно. Перші чотири позиції були зайняті агентними та CLI інструментами для програмування, що відображає високий попит розробників на автоматизацію коду та AI-інструменти для агентів. Descript, інструмен

GateNews20хв. тому

Звіт Epoch AI: Anthropic заробляє 9 мільйонів доларів на одного співробітника — на понад 60% більше, ніж OpenAI

Згідно з даними-інсайтами, опублікованими 8 травня дослідницькою організацією з питань штучного інтелекту Epoch AI, дослідник Луке Емберсон оцінив, що Anthropic генерує приблизно 9 мільйонів доларів виручки на одного співробітника, а OpenAI — близько 5,5 мільйона доларів. Обидві оцінки перевищують рівень виручки на одного співробітника всіх великих публічних технологічних компаній, представлених у списку Forbes Global 2000. Методика оцінок даних і ключові показники для порівняння (Джерело: Epoch

MarketWhisper26хв. тому

Президент OpenAI Брокмана: щоденник за десятиліття викрили в суді цього тижня — розкрито стратегічні напруження навколо статусу некомерційної організації

За даними моніторингу та матеріалів судових слухань, приватний щоденник президента OpenAI Ґреґа Брокмана, який триває десятиліття й містить сотні сторінок, був цього тижня розкритий у матеріалах доказування під час розгляду справи між юридичною командою Ілона Маска та OpenAI. Записи щоденника за 2017 рік виявилися особливо спірними: Брокман писав «справжня відповідь — ми хочемо, щоб він пішов» і «ми не можемо сказати, що пообіцяли залишитися неприбутковими. Ми не хочемо це казати. Якщо за три мі

GateNews32хв. тому

Cerebras IPO: попит на підписку перевищив у 20 разів; діапазон ціни або підвищили до 135 доларів за акцію

За повідомленням Bloomberg від 9 травня, замовлення на первинне публічне розміщення (IPO) AI-чипмейкера Cerebras Systems перевищили кількість акцій, що пропонуються, у 20 разів; Bloomberg з посиланням на інформовані джерела повідомляє, що компанія планує щонайшвидше 11 травня підвищити ціновий діапазон з початкових $115–$125 за акцію до $125–$135. Ціноутворення IPO та деталі випуску Згідно з проспектом, опублікованим Cerebras 4 травня 2026 року, і повідомленням Bloomberg, у межах цього IPO плану

MarketWhisper1год тому

Дохід Anthropic на одного співробітника досягає 9 млн доларів, на 60% вищий за OpenAI, і випереджає всі публічні техгіганти

Згідно з останнім звітом Epoch AI, дохід Anthropic на одного працівника досяг приблизно 9 млн доларів, перевищивши показник OpenAI у 5,6 млн доларів на 60%. Обидві компанії випередили всі технологічні фірми зі списку Forbes Global 2000, а дохід Nvidia на одного працівника становив 5,1 млн доларів для

GateNews1год тому

Ant Bailing випустила AI-модель Ring-2,6-1 трильйон параметрів із результатом PinchBench 87,6

За даними Jinshi, Ant Bailing сьогодні випустила свій флагманський трильйон-параметричний reasoning-модель Ring-2.6-1T, призначений для виконання складних завдань із реального світу. Модель має налаштований механізм Reasoning Effort, який підтримує рівні інтенсивності виведення high і xhigh. У практичних бенчмарках виконання завдань Ring-2.6-1T досягла результату PinchBench 87,6, випередивши GPT-5.4x High, Gemini-3.1-Pro high і Claude-Opus-4.7x high. На просунутих reasoning-завданнях модель набр

GateNews1год тому
Прокоментувати
0/400
Немає коментарів