Trois mineurs du Tennessee ont poursuivi l’IA de xAI d’Elon Musk dans une action collective fédérale, accusant Grok d’avoir généré du matériel d’abus sexuel sur des enfants à partir de leurs vraies photos et que la société aurait sciemment conçu son chatbot IA sans les mesures de sécurité standard de l’industrie, puis en aurait tiré profit.
La plainte, déposée lundi dans le district Nord de Californie, affirme que Grok a été utilisé pour créer et distribuer du matériel d’abus sexuel sur des enfants généré par IA (CSAM) à partir de leurs images réelles.
Les mineurs, identifiés comme Jane Doe 1, 2 et 3, ont déclaré que le contenu modifié a été partagé sur plusieurs plateformes, notamment Discord, Telegram et des sites de partage de fichiers, causant un préjudice émotionnel durable et des atteintes à leur réputation.
« xAI — et son fondateur Elon Musk — ont vu une opportunité commerciale : une occasion de tirer profit de la prédation sexuelle de personnes réelles, y compris des enfants », indique la plainte. « Connaissant le type de contenu nuisible et illégal qui pourrait — et serait — produit, xAI a lancé Grok, un modèle d’intelligence artificielle générative doté de fonctionnalités de création d’images et de vidéos, qui répondrait à des prompts pour créer du contenu sexuel avec l’image ou la vidéo réelle d’une personne. »
Les victimes présumées décrivent des incidents entre mi-2025 et début 2026, lorsque leurs vraies photos ont été modifiées en images explicites et diffusées en ligne.
Dans un cas, l’une des victimes a été alertée par un utilisateur anonyme qui a trouvé des dossiers de contenu généré par IA échangés entre des centaines d’utilisateurs.
Ils allèguent qu’un perpetrateur a accédé à Grok via une application tierce ayant licencié la technologie de xAI, une structure que la plainte indique que xAI a délibérément utilisée pour se décharger de toute responsabilité tout en continuant à tirer profit du modèle sous-jacent.
Au sommet de la controverse publique en janvier, Musk a écrit sur X qu’il n’était « au courant d’aucune image nue d’un mineur » et a ajouté que « lorsqu’on lui demande de générer des images, il refusera de produire quoi que ce soit d’illégal ».
Selon une étude du Center for Countering Digital Hate, citée dans la plainte, Grok aurait produit environ 23 338 images sexualisées d’enfants entre le 29 décembre 2025 et le 9 janvier de cette année, soit environ une toutes les 41 secondes.
Les victimes présumées réclament des dommages d’au moins 150 000 $ par violation en vertu de la loi Masha, ainsi que la restitution des revenus, des dommages punitifs, les honoraires d’avocats, une injonction permanente, et la restitution des profits selon la loi californienne sur la concurrence déloyale.
Les poursuites s’accumulent
Cette plainte est l’une des premières à tenir une société d’IA directement responsable de la production et de la distribution présumées de CSAM généré par IA représentant des mineurs identifiables, et intervient alors que Grok fait l’objet d’enquêtes simultanées aux États-Unis, dans l’UE, au Royaume-Uni, en France, en Irlande et en Australie.
« Lorsqu’un système est conçu intentionnellement pour manipuler de vraies images en contenu sexualisé, l’abus en aval n’est pas une anomalie — c’est une conséquence prévisible », a déclaré Even Alex Chandra, associé chez IGNOS Law Alliance, à Decrypt.
Chandra a indiqué que les tribunaux pourraient ne pas accepter une simple défense de plateforme, notant qu’un système d’IA générative pourrait être « traité comme une plateforme en termes d’interaction utilisateur » mais « évalué comme un produit » lors de l’évaluation de la sécurité, avec une « vigilance particulièrement stricte » appliquée dans les cas de CSAM en raison des obligations accrues de protection des enfants.
Il a également précisé que les tribunaux se concentreront probablement sur les mesures de sécurité, notant que la société pourrait être tenue de démontrer « des évaluations de risques et des mesures de sécurité dès la conception avant le déploiement », ainsi que des garde-fous qui bloquent activement les sorties nuisibles.
Decrypt a contacté Musk via xAI et SpaceX pour un commentaire.