未成年人在加州起诉xAI公司,指控其涉及Grok深度伪造图像

Decrypt

简要概述

  • 三名田纳西州未成年人起诉xAI,指控Grok利用他们的真实照片生成儿童色情内容并在网上传播,造成严重伤害。
  • 起诉书称xAI明知没有安全措施就发布Grok,并从其误用中获利,称其为“商业机会”。
  • 在全球调查进行中提起,所谓的受害者寻求每次违规赔偿15万美元外加损害赔偿和禁令。

三名田纳西州未成年人在联邦集体诉讼中起诉Elon Musk的xAI,指控Grok利用他们的真实照片生成儿童性虐待材料,并且公司明知其AI聊天机器人没有行业标准的安全措施,却仍然设计并从中获利。
该诉讼于周一在加利福尼亚北区提起,声称Grok被用来创建和传播利用他们真实图像生成的AI儿童色情内容(CSAM)。
未成年人被称为Jane Doe 1、2和3,他们表示被篡改的内容在Discord、Telegram和文件分享网站上传播,造成持久的情感创伤和名誉损害。


“xAI——以及其创始人Elon Musk——看到了商业机会:利用真实人的性剥削,包括儿童,来获利,”诉讼中写道。“明知可能产生并会产生有害的非法内容,xAI发布了Grok,这是一款具有图像和视频制作功能的生成式人工智能模型,能根据提示生成带有人体真实图像或视频的性内容。”
所谓的受害者描述了2025年中到2026年初的事件,他们的真实照片被篡改成露骨的图片并在网上流传。
其中一名受害者曾被一名匿名用户提醒,发现有AI生成内容的文件夹在数百用户之间交易。

他们指控一名肇事者通过获得xAI技术授权的第三方应用访问Grok,起诉书称xAI故意利用这种结构来规避责任,同时继续从基础模型中获利。
在一月公众反弹高峰期,Musk在X上写道,他“没有看到任何裸体未成年人图片”,并补充说“在被要求生成图片时,会拒绝制作任何非法内容。”
根据反数字仇恨中心(Center for Countering Digital Hate)在诉讼中引用的调查结果,Grok在2025年12月29日至今年1月9日期间,估计生成了23,338张儿童性化图片,平均每41秒一张。
所谓的受害者寻求每次违规至少赔偿15万美元的赔偿金(根据Masha法案),以及收益追缴、惩罚性赔偿、律师费、永久禁令,以及根据加州不正当竞争法的利润返还。

诉讼不断增加
这是首批直接追究AI公司因涉嫌生产和传播描绘可识别未成年人的AI生成CSAM的案件之一,同时Grok正面临美国、欧盟、英国、法国、爱尔兰和澳大利亚的同步调查。
“当一个系统故意设计成操纵真实图像以生成性内容时,下游的滥用并非偶然——而是可预见的结果,”IGNOS法律联盟的合伙人Alex Chandra告诉_Decrypt_。
Chandra表示,法院可能不会接受简单的平台辩护,指出生成式AI系统在用户交互方面可以被“视为平台”,但在评估安全设计时应“作为产品”进行“特别严格的审查”,尤其是在CSAM案件中,由于对儿童保护的更高义务。
他还表示,法院可能会关注安全措施,预计公司应在部署前展示“风险评估和安全设计措施”,以及积极阻止有害输出的防护措施。

_Decrypt_已联系Musk通过xAI和SpaceX发表评论。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论