Gate News 消息,3 月 17 日,Anthropic 在 LinkedIn 发布职位「化学武器与高当量爆炸物政策经理」,要求申请人具备至少 5 年化学武器和/或爆炸物防御从业经验,并了解放射性散布装置(脏弹)。Anthropic 表示,该岗位旨在防止其 AI 工具 Claude 被用于「灾难性滥用」,担心 Claude 可能被用于获取制造化学或放射性武器的信息,需要专家评估现有安全防护措施是否足够严密。另一家 AI 公司也在招聘页面发布类似职位,方向为生物与化学风险研究员,年薪最高可达 45.5 万美元。对此,BBC 节目《AI Decoded》联合主持人、科技研究员 Stephanie Hare 博士提出质疑:「让 AI 系统处理敏感的化学品、爆炸物和放射性武器信息,真的安全吗?即使已指令 AI 不得使用这些信息。」她还指出,目前没有任何国际条约或法规对此类工作以及 AI 与此类武器的结合使用加以规范,「所有这一切都在公众视野之外进行」。