
Grok a généré une vidéo de son viol : cette ado porte plainte contre Elon Musk
Trois adolescentes américaines ont déposé une plainte devant un tribunal fédéral de San José contre xAI, la société d'Elon Musk, accusant son générateur d'images Grok d'avoir produit des vidéos sexuelles explicites à partir de leurs vraies photos. Parmi les victimes, deux sont mineures. Ces contenus à caractère pédopornographique auraient circulé sur Discord et Telegram, utilisés comme monnaie d'échange entre prédateurs sexuels. L'affaire relance frontalement le débat sur la responsabilité légale des fournisseurs d'IA générative.
Cette plainte s'inscrit dans un contexte plus large de dérives documentées autour de Grok. En janvier 2026, l'outil avait déjà provoqué un scandale mondial en générant massivement des images sexualisées non consenties — femmes et mineurs confondus. Ces incidents ont attiré l'attention des régulateurs, notamment de l'Union européenne, qui surveille les dérives de la plateforme. La capacité des IA génératives à transformer n'importe quelle photo réaliste en contenu explicite en quelques secondes pose une question de fond : les entreprises qui licencient cette technologie peuvent-elles se défausser de toute responsabilité éthique ?
Selon la plainte, les auteurs ont utilisé des clichés pris lors de la rentrée scolaire de Jane Doe 1 pour générer des séquences de déshabillage intégral. Les images n'ont pas été créées directement sur le réseau X, mais via une application tierce opérant sous licence xAI — ce qui, selon l'avocate des victimes Vanessa Baehr-Jones, constitue un mécanisme permettant à xAI de monétiser la technologie tout en esquivant tout contrôle éthique. La police a saisi un téléphone contenant des preuves directement liées aux serveurs de xAI. En deux semaines seulement, en janvier dernier, Grok aurait produit environ 3 millions d'images problématiques, dont près de 23 000 impliquant des mineurs.
Malgré ces chiffres accablants, Elon Musk niait encore récemment l'existence de contenus illicites générés par son système — une position en contradiction flagrante avec les mesures prises par xAI elle-même, qui a restreint la génération d'images aux abonnés payants et bloqué certaines fonctionnalités par zone géographique au plus fort de la crise. Pour les adolescentes concernées, les conséquences dépassent largement le cadre judiciaire : un rapport de l'UNICEF relayé par Forbes rappelle que la découverte de son image manipulée en contenu sexuel provoque un sentiment de violation réel et durable, dont les effets psychologiques peuvent s'étendre sur des années.
Ce scandale renforce la pression sur les régulateurs européens pour accélérer l'application de l'AI Act, notamment ses dispositions interdisant les systèmes d'IA utilisés pour générer des contenus pédopornographiques.


