Спор по вопросам обороны США обостряется, поскольку Anthropic подает иск против Пентагона, оспаривая черный список...

В резком обострении напряженности с Вашингтоном компания по искусственному интеллекту Anthropic подала иск против американских оборонных структур из-за внезапного внесения в черный список.

Anthropic подает в суд на Пентагон по поводу ярлыка «риск цепочки поставок»

В понедельник Anthropic подала два иска против Министерства обороны (Минобороны), утверждая, что решение правительства назвать компанию «риском цепочки поставок» незаконно и нарушает ее права по Первой поправке. Спор тянется уже несколько месяцев, поскольку компания добивалась мер по ограничению использования своего ИИ в военных целях, таких как массовое внутреннее наблюдение или полностью автономное смертельное оружие.

Новые иски, поданные в северный окружной суд Калифорнии и Апелляционный суд США по округу Колумбия, последовали за официальным объявлением о присвоении этого статуса в прошлый четверг. Примечательно, что впервые этот инструмент черного списка был применен к американской компании. Более того, этот статус фактически предписывает любому подрядчику, сотрудничающему с правительством, разорвать все связи с Anthropic, что создает серьезную угрозу бизнес-модели компании.

Обвинения в защите свободы слова и ответных мерах против администрации Трампа

В иске Anthropic утверждает, что администрация Трампа наказывает компанию за отказ соблюдать, по их словам, идеологические требования правительства. Согласно документам, это предполагаемое преследование нарушает защищенное право на свободу слова и является попыткой заставить компанию изменить свою позицию по военным применениям ИИ.

«Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за защищенное право на свободу слова», — заявила Anthropic в своем иске в Калифорнии. Однако правительство пока не раскрывает публично свои мотивы для присвоения этого статуса.

Глубокая интеграция Claude в системы обороны США

За последний год флагманская модель ИИ Anthropic, Claude, стала глубоко интегрирована в структуры Минобороны. До недавнего времени сообщалось, что Claude — единственная одобренная модель ИИ для использования в секретных системах, что подчеркивает ее стратегическую важность. По данным, система активно использовалась в военных операциях, включая помощь в определении целей для ракетных ударов в конфликте с Ираном.

Anthropic подчеркнула в своих документах, что остается приверженной предоставлению ИИ для целей национальной безопасности. Кроме того, в иске в Калифорнии компания заявила, что ранее сотрудничала с Пентагоном для адаптации своих систем под уникальные задачи, настраивая технологию под чувствительные оборонные требования.

Компания требует как судебного пересмотра, так и продолжения диалога

Компания настаивает, что обращение в суд не означает отказа от работы в оборонной сфере. Скорее, она рассматривает судебное разбирательство как необходимую меру защиты. В комментарии для The Guardian представитель заявил: «Обращение в суд не меняет нашу давнюю приверженность использованию ИИ для защиты национальной безопасности, но это необходимый шаг для защиты нашего бизнеса, наших клиентов и партнеров».

Anthropic добавила, что хочет продолжить переговоры с правительством США, несмотря на судебные разбирательства. Компания обещает использовать все возможные средства для разрешения конфликта, включая дальнейшие юридические шаги и прямой диалог с федеральными чиновниками.

Обвинения в причинении экономического ущерба и противоречивые сигналы

В своих судебных документах Anthropic утверждает, что действия администрации Трампа и Минобороны «непрерывно наносят непоправимый ущерб» компании, отключая ее от важного государственного бизнеса. Компания считает, что статус «риска цепочки поставок» может охладить партнерские отношения в более широком оборонно-технологическом секторе.

Однако эти заявления вызывают сомнения на фоне комментариев генерального директора Dario Amodei в недавнем интервью CBS News. На прошлой неделе Amodei заявил, что «влияние этого статуса довольно небольшое» и уверял, что у компании все будет хорошо. Аналитики отмечают, что этот контраст может стать ключевым моментом по мере развития дел.

Пример для тестирования ИИ, национальной безопасности и свободы слова

Anthropic рассматривает спор как важнейшее столкновение за инновации и свободу выражения мнений. «Ответчики стремятся уничтожить экономическую ценность одной из самых быстрорастущих частных компаний мира, которая является лидером в ответственном развитии новой технологии, жизненно важной для нашей страны», — говорится в иске. Также иск поднимает более широкие вопросы о том, как Вашингтон будет регулировать стратегических поставщиков ИИ.

В целом, дело может стать испытанием того, насколько далеко правительство США готово пойти в черном списке компании по ИИ из-за разногласий по вопросам национальной безопасности и использования ИИ. Оно также может повлиять на будущие руководства по вопросам цензуры и границам исполнительной власти в отношении новых технологий.

Пентагон пока молчит

Министерство обороны пока не ответило на запрос о комментариях по поводу документов или процесса принятия решений. На данный момент судебный иск Anthropic добавляет новую точку напряженности в дискуссию о том, как США должны балансировать между обеспечением безопасности, гражданскими свободами и быстрым внедрением передовых систем ИИ в военных и разведывательных операциях.

В целом, двойные иски Anthropic обозначают важный конфликт между быстрорастущим разработчиком ИИ и американской оборонной системой, результаты которого могут оказать влияние на национальную безопасность, технологическую политику и борьбу за свободу слова в корпоративной сфере в 2024 году и в будущем.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить