Gate News Новости, 17 марта, Anthropic разместила на LinkedIn вакансию «Менеджер по политике в области химического оружия и высокоэксплозивных веществ», требуя от кандидатов как минимум 5 лет опыта в области защиты от химического оружия и/или взрывных устройств, а также знания о радиационных распространительных устройствах (грязные бомбы). Anthropic заявила, что эта позиция предназначена для предотвращения использования их ИИ-инструмента Claude в «катастрофическом злоупотреблении», опасаясь, что Claude может быть использован для получения информации о производстве химического или радиационного оружия, и необходима оценка экспертов, достаточно ли строгие существующие меры безопасности. Еще одна компания в области ИИ также разместила на странице вакансий похожую должность — исследователь по биологическим и химическим рискам, с максимальной годовой зарплатой до 455 000 долларов. В связи с этим ведущий программы BBC «AI Decoded» и научный сотрудник Stephanie Hare博士 выразила сомнения: «Действительно ли безопасно, чтобы системы ИИ обрабатывали чувствительную информацию о химикатах, взрывных устройствах и радиационном оружии? Даже если им было дано указание не использовать эти данные.» Она также отметила, что в настоящее время отсутствуют какие-либо международные договоры или нормативные акты, регулирующие такие работы и использование ИИ в сочетании с этим оружием, «все это происходит за пределами общественного контроля».