ゲートニュースによると、3月17日にAnthropicはLinkedInで「化学兵器および高当量爆発物政策マネージャー」の募集を発表しました。応募者は少なくとも5年以上の化学兵器および/または爆発物防護の経験を持ち、放射性散布装置(汚染弾)について理解している必要があります。Anthropicは、このポジションはAIツールClaudeが「破滅的な乱用」に使われるのを防ぐことを目的としており、Claudeが化学兵器や放射性兵器の製造情報を入手するために利用される可能性を懸念し、専門家による現行の安全対策の評価が必要だと述べています。もう一つのAI企業も採用ページで類似の職種を掲載しており、生物・化学リスク研究員として、年収は最大45.5万ドルに達します。これに対し、BBC番組『AI Decoded』の共同司会者でありテクノロジー研究者のステファニー・ヘア博士は疑問を投げかけました。「AIシステムに敏感な化学品や爆発物、放射性兵器の情報を扱わせることは本当に安全なのか?たとえAIにこれらの情報を使用しないよう指示しても。」彼女はまた、現時点でこの種の作業やAIとこれらの兵器の結びつきに関する国際条約や規制は存在しないと指摘し、「すべてが一般の目から隠れて行われている」と述べています。