テネシー州の未成年者3人が、イーロン・マスク率いるxAIを連邦の集団訴訟で提訴し、Grokが彼らの実写真を使って児童性的虐待コンテンツ(CSAM)を生成したと主張している。
この訴訟は月曜日にカリフォルニア州北部地区で提起され、Grokが彼らの実画像を用いてAI生成の児童性的虐待コンテンツを作成・配布したと述べている。
未成年者たちは、Jane Doe 1、2、3として特定され、改変されたコンテンツがDiscord、Telegram、ファイル共有サイトなどで共有され、長期にわたる精神的苦痛と名誉毀損を引き起こしたと述べている。
「xAIとその創設者であるイーロン・マスクは、ビジネスチャンスを見出した:実在の人々、特に子供たちの性的捕食から利益を得る機会だ」と訴状は記している。「有害で違法なコンテンツが生成されることを知りながら、xAIは画像や動画作成機能を持つ生成AIモデルGrokをリリースし、プロンプトに応じて実在の人物の画像や動画を使った性的コンテンツを作成させた。」
被害者とされる者たちは、2025年中頃から2026年初頭にかけて、実写真が改変されて露骨な画像としてオンラインで流通した事件を述べている。
ある被害者は、匿名のユーザーから、AI生成コンテンツのフォルダが何百人ものユーザー間で取引されているのを発見し、警告を受けた。
彼らは、第三者のアプリケーションを通じてGrokにアクセスした犯人が、xAIの技術をライセンスした仕組みを利用していたと主張している。提訴状は、xAIが意図的に責任回避のためにこの構造を用いたと指摘している。
1月の公衆の反発のピーク時、マスクはX上で「未成年の裸の画像については知らない」と書き、「違法な画像の生成には応じない」と付け加えた。
訴訟に引用されたデジタルヘイト対策センターの調査結果によると、Grokは2025年12月29日から2026年1月9日までの間に、子供の性的画像を約23,338枚生成し、1枚あたり約41秒ごとに1枚の割合で作成されたと推定されている。
被害者とされる者たちは、マシャ法に基づき、違反ごとに最低15万ドルの賠償金と収益の返還、懲罰的損害賠償、弁護士費用、恒久的な差止命令、そしてカリフォルニア州の不正競争防止法に基づく利益の返還を求めている。
訴訟の増加
この訴訟は、AI企業が特定の未成年者を描いたAI生成CSAMの制作・配布に直接責任を問われた最初の例の一つであり、Grokが米国、EU、英国、フランス、アイルランド、オーストラリアで同時に調査を受けている最中に提起された。
「システムが意図的に実画像を性的化したコンテンツに操作するよう設計されている場合、その後の虐待は例外ではなく、予見可能な結果です」とIGNOS Law Allianceのパートナー、アレックス・チャンドラは_decrypt_に語った。
チャンドラは、裁判所は単なるプラットフォームの防御を受け入れない可能性があると指摘し、「生成AIシステムはユーザーとのインタラクションの観点からプラットフォームとして扱われることもあるが、安全性の設計を評価する際には『製品として』評価されるべきであり、特にCSAMのケースでは子供の保護義務のために『非常に厳格な審査』が適用される」と述べた。
また、裁判所は安全対策に焦点を当てる可能性が高く、「リスク評価や安全設計措置を展開前に示すことが期待される」とし、有害な出力を積極的にブロックするガードレールの設置も求められると述べた。
_decrypt_は、マスクに対してxAIおよびSpaceXを通じてコメントを求めている。