Le 16 mars 2026, trois adolescentes du Tennessee ont déposé une plainte collective (class action) contre xAI, la société d'intelligence artificielle fondée par Elon Musk. Elles accusent le chatbot Grok d'avoir été utilisé pour transformer leurs photos scolaires en images sexuellement explicites. La plainte de 44 pages a été déposée devant le tribunal fédéral du district nord de Californie, à San Jose. C'est la première class action intentée par des mineurs contre un développeur d'IA pour des contenus qualifiés de pédopornographiques.
Les faits : des photos d'annuaire transformées en images explicites
En décembre 2025, une adolescente du Tennessee reçoit un message d'un utilisateur anonyme sur Instagram. Il l'informe que des images sexuellement explicites d'elle circulent sur un serveur Discord. L'une de ces images a été générée à partir d'une photo prise lors du homecoming de son lycée en septembre 2025. Une autre, la montrant dénudée, provenait de son portrait d'annuaire scolaire photographié en juin.
Selon la plainte, l'auteur des images entretenait « une relation proche et amicale » avec l'une des victimes. Il a utilisé des photos envoyées par la victime, des clichés publiés sur Instagram et des portraits d'annuaire scolaire. Il a eu recours à une application tierce ayant obtenu une licence d'accès aux capacités de génération d'images de Grok pour transformer ces photos en contenus sexuellement explicites.
La méthode décrite dans la plainte consistait à demander au système de modifier progressivement les images — maillots de bain transparents, puis positions sexualisées — jusqu'à produire des images et vidéos de nudité complète. Les contenus générés n'étaient pas étiquetés comme créés par intelligence artificielle.
L'auteur présumé a créé des images de 21 mineures au total et les a échangées ou vendues sur Discord et Telegram contre d'autres images pédopornographiques. Il a été arrêté en décembre 2025. La police a confirmé aux familles que les images avaient été créées avec Grok. Parmi les trois plaignantes, identifiées comme Jane Doe 1, 2 et 3, deux sont encore mineures. L'une souffre de cauchemars récurrents. Une autre nécessite un accompagnement médical pour dormir.
Grok, un modèle d'IA sans garde-fous suffisants
Grok utilise le modèle Aurora pour la génération d'images, intégré à la plateforme X (anciennement Twitter). Contrairement à ses concurrents, Grok dispose d'un « Spicy mode » qui autorise la génération de contenus incluant de la nudité et des thèmes sexualisés. Le 29 décembre 2025, Elon Musk a lancé une fonctionnalité permettant aux utilisateurs de X de modifier n'importe quelle image publiée sur la plateforme en un clic via Grok.
La différence avec les autres plateformes est significative. OpenAI (DALL-E) et Google (Imagen) refusent systématiquement de générer du contenu sexuellement explicite et intègrent des filigranes numériques dans chaque image. Midjourney applique des restrictions similaires. Chez xAI, les règles interdisant la pornographie étaient « vaguement appliquées », selon les termes de la plainte.
Riana Pfefferkorn, chercheuse au Stanford Internet Observatory, résume le problème : « Avec Grok, tout est verticalement intégré : un guichet unique pour perpétrer des abus, où vous pouvez garantir que la victime verra le contenu parce que vous allez dans ses réponses, vous taguez Grok, et Grok génère l'image et la poste directement. »
La plainte souligne un autre élément : xAI a octroyé des licences d'accès à son modèle à des développeurs d'applications tiers, souvent basés hors des États-Unis, tout en hébergeant sur ses propres serveurs les contenus générés par ces applications. Les avocats des plaignantes y voient une « externalisation de la responsabilité ».
Trois millions d'images en onze jours
Le Center for Countering Digital Hate (CCDH) a publié le 22 janvier 2026 un rapport documentant l'ampleur du phénomène. En analysant les publications de Grok sur une période de onze jours, l'organisation a recensé environ 3 millions d'images sexualisées, dont 23 000 représentant des mineurs. Le rythme mesuré atteignait 190 images sexualisées par minute, soit une image de mineur toutes les 41 secondes.
L'ONG parisienne AI Forensics a conduit une analyse parallèle sur 20 000 images générées par Grok entre le 25 décembre 2025 et le 1er janvier 2026. Résultat : 53 % des images contenaient des personnes en tenue minimale. Deux pour cent représentaient des mineurs apparents, y compris des enfants de moins de cinq ans.
À l'échelle mondiale, les signalements de contenus pédopornographiques générés par IA à la CyberTipline du NCMEC (National Center for Missing and Exploited Children) sont passés de 4 700 en 2023 à 67 000 en 2024, puis à 440 419 au premier semestre 2025. L'Internet Watch Foundation (IWF) a détecté 3 440 vidéos de ce type en 2025, contre 13 en 2024. Une étude conjointe d'UNICEF, ECPAT et Interpol menée dans onze pays estime qu'au moins 1,2 million d'enfants ont vu leurs images manipulées en deepfakes sexuellement explicites au cours de l'année écoulée.
La riposte : 35 procureurs américains, l'UE et la France contre xAI
La réponse judiciaire et politique est venue de plusieurs continents simultanément. Aux États-Unis, une coalition bipartisane de 35 procureurs généraux d'États a adressé le 23 janvier 2026 une lettre à xAI, affirmant que « la capacité de créer des images intimes non consenties semble être une fonctionnalité, pas un bug ». Le procureur général de Californie Rob Bonta a ouvert une enquête et envoyé une mise en demeure exigeant l'arrêt immédiat de la création et de la distribution de deepfakes et de contenus pédopornographiques.
Le Congrès américain a accéléré le calendrier législatif. Le DEFIANCE Act, adopté à l'unanimité par le Sénat le 13 janvier 2026 dans la foulée du scandale, accorde un droit d'action civile aux victimes de deepfakes (150 000 à 250 000 dollars de dommages). Le TAKE IT DOWN Act, signé par le président Trump en mai 2025, criminalisera la publication de contenus intimes non consentis à compter du 19 mai 2026 (jusqu'à deux ans de prison, davantage pour les mineurs).
En Europe, la Commission européenne a ouvert le 26 janvier 2026 une enquête formelle contre X au titre du Digital Services Act (DSA), portant sur l'intégration de Grok et les systèmes de recommandation de la plateforme. L'amende peut atteindre 6 % du chiffre d'affaires mondial. Le 11 mars, les législateurs de l'UE ont conclu un accord politique pour ajouter à l'AI Act une interdiction explicite des images intimes non consenties générées par IA, y compris les contenus pédopornographiques.
Au Royaume-Uni, l'Ofcom a ouvert une enquête le 12 janvier 2026 en vertu de l'Online Safety Act (amende possible : 10 % du chiffre d'affaires mondial). La Malaisie et l'Indonésie sont devenues les premiers pays à bloquer l'accès à Grok, respectivement les 10 et 11 janvier 2026.
La France en première ligne
Le parquet de Paris a élargi une enquête préexistante pour y inclure Grok. Le 3 février 2026, les locaux français de X ont été perquisitionnés. Elon Musk et Linda Yaccarino (directrice générale de X) ont été convoqués en audition libre le 20 avril 2026 à Paris. Les infractions pénales visées incluent la « complicité de détention d'images de mineurs à caractère pédopornographique » et l'« exploitation d'une plateforme en ligne illicite en bande organisée ». Le parquet de Paris a fermé son propre compte sur X.
En parallèle, la Data Protection Commission irlandaise (DPC), autorité de contrôle de X dans l'Union européenne, a ouvert le 17 février 2026 une enquête au titre du RGPD portant sur le traitement de données personnelles de mineurs sans base légale.
Elon Musk conteste, xAI se tait
Interrogé sur le sujet, Elon Musk a déclaré : « Je n'ai connaissance d'aucune image nue de mineur générée par Grok. Littéralement zéro. » Il a affirmé que Grok « refusera de produire quoi que ce soit d'illégal ». xAI n'a pas répondu aux demandes de commentaires sur le procès du 16 mars.
La société a toutefois pris des mesures depuis janvier 2026. Le 9 janvier, la génération d'images a été restreinte aux abonnés payants de X. Le 14 janvier, des filtres techniques ont été ajoutés pour empêcher la modification d'images de personnes réelles dans des vêtements révélateurs. Mais le 3 février, l'agence Reuters a rapporté que Grok continuait de générer des images sexualisées malgré les restrictions.
xAI a par ailleurs contre-attaqué sur le terrain judiciaire. Le 16 janvier, la société a poursuivi Ashley St. Clair — mère d'un enfant d'Elon Musk qui avait intenté la veille un procès similaire — pour violation de ses conditions d'utilisation, réclamant plus de 75 000 dollars de dommages.
Les avocats des trois adolescentes du Tennessee, le cabinet Lieff Cabraser, estiment que le recours collectif pourrait concerner « au moins des milliers de mineurs ». Vanessa Baehr-Jones, ancienne procureure fédérale spécialisée dans les crimes sexuels contre enfants, représente les plaignantes : « xAI a choisi de profiter de la prédation sexuelle de personnes réelles, y compris des enfants, en sachant parfaitement les conséquences de la création d'un produit aussi dangereux. »










