Anthropic 招聘化武专家防范 Claude 被滥用,专家质疑此举或增加风险

Gate News 消息,3 月 17 日,Anthropic 在 LinkedIn 發布職位「化學武器與高當量爆炸物政策經理」,要求申請人具備至少 5 年化學武器和/或爆炸物防禦從業經驗,並了解放射性散布裝置(髒彈)。Anthropic 表示,該崗位旨在防止其 AI 工具 Claude 被用於「災難性濫用」,擔心 Claude 可能被用於獲取製造化學或放射性武器的信息,需要專家評估現有安全防護措施是否足夠嚴密。另一家 AI 公司也在招聘頁面發布類似職位,方向為生物與化學風險研究員,年薪最高可達 45.5 萬美元。對此,BBC 節目《AI Decoded》聯合主持人、科技研究員 Stephanie Hare 博士提出質疑:「讓 AI 系統處理敏感的化學品、爆炸物和放射性武器信息,真的安全嗎?即使已指令 AI 不得使用這些信息。」她還指出,目前沒有任何國際條約或法規對此類工作以及 AI 與此類武器的結合使用加以規範,「所有這一切都在公眾視野之外進行」。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言