Les mineurs poursuivent xAI en Californie pour des images de deepfake Grok alléguées

Decrypt

En résumé

  • Trois mineurs du Tennessee ont poursuivi xAI d’Elon Musk, alléguant que Grok a généré du matériel d’abus sexuel sur des enfants à partir de leurs vraies photos et l’a diffusé en ligne, causant de graves préjudices.
  • La plainte affirme que xAI a délibérément lancé Grok sans mesures de sécurité et en a tiré profit, qualifiant cela d’« opportunité commerciale ».
  • Déposée dans un contexte d’enquêtes mondiales, les victimes présumées réclament 150 000 $ par violation, plus des dommages-intérêts, une injonction et la restitution des profits.

Trois mineurs du Tennessee ont poursuivi l’IA de xAI d’Elon Musk dans une action collective fédérale, accusant Grok d’avoir généré du matériel d’abus sexuel sur des enfants à partir de leurs vraies photos et que la société aurait sciemment conçu son chatbot IA sans les mesures de sécurité standard de l’industrie, puis en aurait tiré profit.
La plainte, déposée lundi dans le district Nord de Californie, affirme que Grok a été utilisé pour créer et distribuer du matériel d’abus sexuel sur des enfants généré par IA (CSAM) à partir de leurs images réelles.
Les mineurs, identifiés comme Jane Doe 1, 2 et 3, ont déclaré que le contenu modifié a été partagé sur plusieurs plateformes, notamment Discord, Telegram et des sites de partage de fichiers, causant un préjudice émotionnel durable et des atteintes à leur réputation.

« xAI — et son fondateur Elon Musk — ont vu une opportunité commerciale : une occasion de tirer profit de la prédation sexuelle de personnes réelles, y compris des enfants », indique la plainte. « Connaissant le type de contenu nuisible et illégal qui pourrait — et serait — produit, xAI a lancé Grok, un modèle d’intelligence artificielle générative doté de fonctionnalités de création d’images et de vidéos, qui répondrait à des prompts pour créer du contenu sexuel avec l’image ou la vidéo réelle d’une personne. »
Les victimes présumées décrivent des incidents entre mi-2025 et début 2026, lorsque leurs vraies photos ont été modifiées en images explicites et diffusées en ligne.
Dans un cas, l’une des victimes a été alertée par un utilisateur anonyme qui a trouvé des dossiers de contenu généré par IA échangés entre des centaines d’utilisateurs.

Ils allèguent qu’un perpetrateur a accédé à Grok via une application tierce ayant licencié la technologie de xAI, une structure que la plainte indique que xAI a délibérément utilisée pour se décharger de toute responsabilité tout en continuant à tirer profit du modèle sous-jacent.
Au sommet de la controverse publique en janvier, Musk a écrit sur X qu’il n’était « au courant d’aucune image nue d’un mineur » et a ajouté que « lorsqu’on lui demande de générer des images, il refusera de produire quoi que ce soit d’illégal ».
Selon une étude du Center for Countering Digital Hate, citée dans la plainte, Grok aurait produit environ 23 338 images sexualisées d’enfants entre le 29 décembre 2025 et le 9 janvier de cette année, soit environ une toutes les 41 secondes.
Les victimes présumées réclament des dommages d’au moins 150 000 $ par violation en vertu de la loi Masha, ainsi que la restitution des revenus, des dommages punitifs, les honoraires d’avocats, une injonction permanente, et la restitution des profits selon la loi californienne sur la concurrence déloyale.
Les poursuites s’accumulent
Cette plainte est l’une des premières à tenir une société d’IA directement responsable de la production et de la distribution présumées de CSAM généré par IA représentant des mineurs identifiables, et intervient alors que Grok fait l’objet d’enquêtes simultanées aux États-Unis, dans l’UE, au Royaume-Uni, en France, en Irlande et en Australie.
« Lorsqu’un système est conçu intentionnellement pour manipuler de vraies images en contenu sexualisé, l’abus en aval n’est pas une anomalie — c’est une conséquence prévisible », a déclaré Even Alex Chandra, associé chez IGNOS Law Alliance, à Decrypt.
Chandra a indiqué que les tribunaux pourraient ne pas accepter une simple défense de plateforme, notant qu’un système d’IA générative pourrait être « traité comme une plateforme en termes d’interaction utilisateur » mais « évalué comme un produit » lors de l’évaluation de la sécurité, avec une « vigilance particulièrement stricte » appliquée dans les cas de CSAM en raison des obligations accrues de protection des enfants.
Il a également précisé que les tribunaux se concentreront probablement sur les mesures de sécurité, notant que la société pourrait être tenue de démontrer « des évaluations de risques et des mesures de sécurité dès la conception avant le déploiement », ainsi que des garde-fous qui bloquent activement les sorties nuisibles.

Decrypt a contacté Musk via xAI et SpaceX pour un commentaire.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire