
Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes
xAI et son assistant Grok sont au cœur d'une crise majeure qui secoue l'Europe. Des milliers d'utilisateurs ont exploité l'outil pour générer des images intimes de femmes — et même de mineurs — à partir d'une simple requête textuelle, sans aucun filtre. Trois adolescentes ont depuis déposé une plainte collective contre xAI, accusant Grok d'avoir produit des images pornographiques hyperréalistes à partir de leurs vraies photos, selon The Guardian.
Ce scandale a servi de déclencheur à une accélération législative à Bruxelles. L'Union européenne ne se contente plus de sanctionner la diffusion de contenus illicites — elle s'attaque désormais aux outils eux-mêmes. C'est un changement de paradigme majeur : l'approche devient préventive, et non plus seulement punitive. Les développeurs d'IA seraient ainsi tenus d'empêcher techniquement la génération de ces contenus, sous peine de lourdes sanctions.
Le 18 mars 2026, la commission LIBE a approuvé un amendement intégré à l'AI Omnibus — le texte qui ajuste l'AI Act — interdisant les systèmes capables de produire des images sexuelles réalistes de personnes identifiables sans leur consentement. Validé politiquement le 11 mars 2026 par le Parlement et le Conseil, le texte doit encore passer un vote en séance plénière. Les sanctions prévues peuvent atteindre 7 % du chiffre d'affaires mondial.
L'entrée en vigueur de certaines obligations reste incertaine, avec un calendrier qui pourrait être repoussé à 2027, voire 2028 pour les applications à haut risque. Plusieurs acteurs du secteur redoutent un frein à l'innovation face à des contraintes techniques jugées complexes. Mais l'UE dispose déjà d'une base : depuis 2024, une directive sanctionne les violences faites aux femmes via l'IA, et le Digital Services Act impose le retrait rapide des contenus illégaux — des dispositifs qui ont pourtant montré leurs limites face à la vitesse de propagation des deepfakes.
L'amendement à l'AI Omnibus approuvé par la commission LIBE le 18 mars 2026 impose des contraintes techniques directes aux développeurs et plateformes IA opérant en Europe, les obligeant à empêcher techniquement la génération de deepfakes sexuels non consentis de personnes identifiables.
C'est la première fois qu'on cible l'outil plutôt que le contenu, et c'est un vrai changement de logique. Grok a servi de déclencheur, mais l'amendement va bien au-delà d'xAI : n'importe quelle plateforme qui peut générer ce genre d'images devra l'empêcher techniquement, pas juste le modérer après coup. Reste à voir comment on définit "deepfake réaliste de personne identifiable" en pratique, parce que là, ça va faire débat.


