La xAI d'Elon Musk poursuivie en justice pour avoir transformé de vraies photos de jeunes filles en CSAM généré par IA
La filiale IA d'Elon Musk, xAI, fait face à des poursuites judiciaires après la découverte de ce qui pourrait constituer les premiers matériaux d'abus sexuels sur enfants (CSAM) générés par Grok formellement confirmés par les autorités. Le signalement, parti d'un utilisateur anonyme sur Discord, a conduit les forces de l'ordre à identifier des images réelles de jeunes filles transformées en CSAM par l'IA générative — un cas que xAI ne peut cette fois pas simplement nier.
Cette affaire prend une dimension particulièrement grave au regard des réponses passées de l'entreprise. En janvier dernier, Elon Musk avait publiquement affirmé que Grok ne produisait aucun CSAM, en plein scandale autour du refus de xAI de mettre à jour ses filtres pour empêcher le chatbot de "dénuder" des images de personnes réelles. Plutôt que de corriger le modèle, l'entreprise avait choisi de restreindre l'accès à l'image generation aux abonnés payants — une décision qui a limité la visibilité publique des dérives sans en éliminer la cause.
Les chiffres révélés lors de cette controverse sont accablants. Des chercheurs du Center for Countering Digital Hate avaient estimé que Grok avait généré environ 3 millions d'images sexualisées, dont approximativement 23 000 représentant des enfants. Selon un rapport de Wired, les contenus les plus extrêmes n'avaient pas été diffusés sur X — ce qui explique pourquoi leur existence était restée difficile à prouver jusqu'à présent.
La plainte judiciaire marque un tournant : pour la première fois, des preuves concrètes et confirmées de CSAM généré par Grok se retrouvent entre les mains de la justice, rendant caduque la stratégie de déni d'xAI. Cette affaire pourrait faire jurisprudence sur la responsabilité des éditeurs d'IA générative face aux contenus illicites produits par leurs systèmes.
Le DSA et le règlement européen sur l'IA imposent des obligations strictes de modération aux plateformes actives en Europe, ce cas pourrait accélérer des actions réglementaires contre X/Grok au sein de l'UE.


