AI与军事合同故事中的有趣转折。


事实证明,当涉及到巨额资金时,即使宣称具有高尚道德标准的公司,也开始重新审视自己的立场。

一切始于Anthropic,Claude的创造者,拒绝迎合五角大楼的要求。
军方要求取消所有关于大规模监控和自主武器的AI使用限制。
Anthropic选择了原则立场,拒绝合作,尽管这涉及2亿美元的合同。
对任何公司来说都是重大风险,但他们将道德问题置于财务利益之上。

作为回应,五角大楼没有客气。
Anthropic被正式列为供应链安全威胁,这几乎切断了他们参与军事项目的渠道。
看似故事到此结束。

但最精彩的部分才刚刚开始。
最初被视为Anthropic在道德问题上的同路人的OpenAI,意外与五角大楼签订了类似条件的合同。
只是,OpenAI没有提供任何关于限制的保证。
实际上,他们取代了Anthropic的位置,但没有那份原则性。

这很好地展示了真实商业的运作方式。
关于道德的漂亮言辞听起来不错,直到出现重大提议。
当桌上摆着钱时,优先级可能会发生变化。
OpenAI表明,对于它来说,与国家的关系中的道德比合同机会更不重要。

这种情况反映出AI行业日益紧张的局势。
一方面,公司谈论负责任的技术发展和道德框架。
另一方面,政府机构推动扩展能力,企业之间的竞争促使它们在原则上妥协。
当涉及到军事应用和大规模国家合同时,道德问题变得愈发复杂。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论