
AI Act : les usages interdits, impossible à rendre conformes
L'AI Act européen trace des lignes rouges que nulle entreprise ne peut franchir, quelle que soit la sophistication de ses garde-fous. Contrairement aux systèmes classés à haut risque — qui restent autorisés sous conditions strictes — les usages visés par l'Article 5 sont soumis à une interdiction absolue : aucun audit, aucune documentation, aucune supervision humaine ne suffit à les rendre conformes. La seule issue est l'abandon pur et simple du projet.
L'importance de ce texte dépasse le cadre technique : il s'attaque aux atteintes aux droits fondamentaux que l'IA peut provoquer à grande échelle. Manipulation cognitive, exploitation de vulnérabilités financières, scoring social à la chinoise, reconnaissance biométrique en temps réel à des fins répressives, police prédictive individuelle, inférence émotionnelle en milieu professionnel ou scolaire — ces six grandes catégories dessinent les contours d'une éthique numérique spécifiquement européenne. Comme le souligne l'experte Anne-Angélique de Tourtier, spécialiste en privacy et gouvernance IA : « Rien de nouveau ici, c'est même plutôt logique au regard de la culture française et européenne. »
Le danger concret réside dans les projets aux intentions bienveillantes qui franchissent malgré eux ces frontières. Anne-Angélique de Tourtier illustre le piège : un outil d'analyse vocale déployé dans un service client pour « aider les agents à mieux gérer le stress » peut, s'il déduit des émotions ou sert à évaluer les salariés, tomber sous le coup de l'Art. 5, 1.f. S'y ajoute le risque de corrélation indirecte : des données biaisées permettent à un modèle de réintroduire des discriminations que l'on croyait avoir effacées. C'est précisément le rôle du Data Analyst coordonné par un Digital Ethic Officer — deux profils appelés à devenir incontournables — que de surveiller la qualité des données injectées et de conduire des audits de biais réguliers conformément à l'Art. 10.
L'experte nuance toutefois : « Des notions comme la "manipulation" restent floues et peuvent être sujettes à interprétation. » Le vrai terrain de jeu sera jurisprudentiel. Les entreprises qui imaginent pouvoir ajuster n'importe quel projet par la conformité commettent une erreur fondamentale — l'AI Act suit ici la même trajectoire que l'Art. 22 du RGPD sur la décision automatisée : certaines pratiques ne se négocient pas.
Les entreprises françaises et européennes déployant des systèmes IA dans ces six catégories interdites doivent les abandonner immédiatement, sans recours possible à un audit ou à des mesures correctives, sous peine de sanctions de l'AI Act.


