Gate News 消息,3 月 17 日,Anthropic 在 LinkedIn 發布職位「化學武器與高當量爆炸物政策經理」,要求申請人具備至少 5 年化學武器和/或爆炸物防禦從業經驗,並了解放射性散布裝置(髒彈)。Anthropic 表示,該崗位旨在防止其 AI 工具 Claude 被用於「災難性濫用」,擔心 Claude 可能被用於獲取製造化學或放射性武器的信息,需要專家評估現有安全防護措施是否足夠嚴密。另一家 AI 公司也在招聘頁面發布類似職位,方向為生物與化學風險研究員,年薪最高可達 45.5 萬美元。對此,BBC 節目《AI Decoded》聯合主持人、科技研究員 Stephanie Hare 博士提出質疑:「讓 AI 系統處理敏感的化學品、爆炸物和放射性武器信息,真的安全嗎?即使已指令 AI 不得使用這些信息。」她還指出,目前沒有任何國際條約或法規對此類工作以及 AI 與此類武器的結合使用加以規範,「所有這一切都在公眾視野之外進行」。