Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Спор по вопросам обороны США обостряется, поскольку Anthropic подает иск против Пентагона, оспаривая черный список...
В резком обострении напряженности с Вашингтоном компания по искусственному интеллекту Anthropic подала иск против американских оборонных структур из-за внезапного внесения в черный список.
Anthropic подает в суд на Пентагон по поводу ярлыка «риск цепочки поставок»
В понедельник Anthropic подала два иска против Министерства обороны (Минобороны), утверждая, что решение правительства назвать компанию «риском цепочки поставок» незаконно и нарушает ее права по Первой поправке. Спор тянется уже несколько месяцев, поскольку компания добивалась мер по ограничению использования своего ИИ в военных целях, таких как массовое внутреннее наблюдение или полностью автономное смертельное оружие.
Новые иски, поданные в северный окружной суд Калифорнии и Апелляционный суд США по округу Колумбия, последовали за официальным объявлением о присвоении этого статуса в прошлый четверг. Примечательно, что впервые этот инструмент черного списка был применен к американской компании. Более того, этот статус фактически предписывает любому подрядчику, сотрудничающему с правительством, разорвать все связи с Anthropic, что создает серьезную угрозу бизнес-модели компании.
Обвинения в защите свободы слова и ответных мерах против администрации Трампа
В иске Anthropic утверждает, что администрация Трампа наказывает компанию за отказ соблюдать, по их словам, идеологические требования правительства. Согласно документам, это предполагаемое преследование нарушает защищенное право на свободу слова и является попыткой заставить компанию изменить свою позицию по военным применениям ИИ.
«Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за защищенное право на свободу слова», — заявила Anthropic в своем иске в Калифорнии. Однако правительство пока не раскрывает публично свои мотивы для присвоения этого статуса.
Глубокая интеграция Claude в системы обороны США
За последний год флагманская модель ИИ Anthropic, Claude, стала глубоко интегрирована в структуры Минобороны. До недавнего времени сообщалось, что Claude — единственная одобренная модель ИИ для использования в секретных системах, что подчеркивает ее стратегическую важность. По данным, система активно использовалась в военных операциях, включая помощь в определении целей для ракетных ударов в конфликте с Ираном.
Anthropic подчеркнула в своих документах, что остается приверженной предоставлению ИИ для целей национальной безопасности. Кроме того, в иске в Калифорнии компания заявила, что ранее сотрудничала с Пентагоном для адаптации своих систем под уникальные задачи, настраивая технологию под чувствительные оборонные требования.
Компания требует как судебного пересмотра, так и продолжения диалога
Компания настаивает, что обращение в суд не означает отказа от работы в оборонной сфере. Скорее, она рассматривает судебное разбирательство как необходимую меру защиты. В комментарии для The Guardian представитель заявил: «Обращение в суд не меняет нашу давнюю приверженность использованию ИИ для защиты национальной безопасности, но это необходимый шаг для защиты нашего бизнеса, наших клиентов и партнеров».
Anthropic добавила, что хочет продолжить переговоры с правительством США, несмотря на судебные разбирательства. Компания обещает использовать все возможные средства для разрешения конфликта, включая дальнейшие юридические шаги и прямой диалог с федеральными чиновниками.
Обвинения в причинении экономического ущерба и противоречивые сигналы
В своих судебных документах Anthropic утверждает, что действия администрации Трампа и Минобороны «непрерывно наносят непоправимый ущерб» компании, отключая ее от важного государственного бизнеса. Компания считает, что статус «риска цепочки поставок» может охладить партнерские отношения в более широком оборонно-технологическом секторе.
Однако эти заявления вызывают сомнения на фоне комментариев генерального директора Dario Amodei в недавнем интервью CBS News. На прошлой неделе Amodei заявил, что «влияние этого статуса довольно небольшое» и уверял, что у компании все будет хорошо. Аналитики отмечают, что этот контраст может стать ключевым моментом по мере развития дел.
Пример для тестирования ИИ, национальной безопасности и свободы слова
Anthropic рассматривает спор как важнейшее столкновение за инновации и свободу выражения мнений. «Ответчики стремятся уничтожить экономическую ценность одной из самых быстрорастущих частных компаний мира, которая является лидером в ответственном развитии новой технологии, жизненно важной для нашей страны», — говорится в иске. Также иск поднимает более широкие вопросы о том, как Вашингтон будет регулировать стратегических поставщиков ИИ.
В целом, дело может стать испытанием того, насколько далеко правительство США готово пойти в черном списке компании по ИИ из-за разногласий по вопросам национальной безопасности и использования ИИ. Оно также может повлиять на будущие руководства по вопросам цензуры и границам исполнительной власти в отношении новых технологий.
Пентагон пока молчит
Министерство обороны пока не ответило на запрос о комментариях по поводу документов или процесса принятия решений. На данный момент судебный иск Anthropic добавляет новую точку напряженности в дискуссию о том, как США должны балансировать между обеспечением безопасности, гражданскими свободами и быстрым внедрением передовых систем ИИ в военных и разведывательных операциях.
В целом, двойные иски Anthropic обозначают важный конфликт между быстрорастущим разработчиком ИИ и американской оборонной системой, результаты которого могут оказать влияние на национальную безопасность, технологическую политику и борьбу за свободу слова в корпоративной сфере в 2024 году и в будущем.