Un agent d'IA de Codewall a piraté un recruteur d'IA puis s'est fait passer pour Trump pour tester les limites de son assistant vocal
Un agent d'intelligence artificielle développé par Codewall a réussi à prendre le contrôle d'une plateforme de recrutement alimentée par l'IA — et ce pendant une heure entière. Cette démonstration illustre une réalité émergente et préoccupante : les systèmes d'IA ne sont plus seulement des outils offensifs ou défensifs, ils sont eux-mêmes des cibles vulnérables aux attaques.
L'incident met en lumière la complexité croissante du paysage de la cybersécurité à l'ère de l'IA. Lorsque des agents autonomes interagissent entre eux — un recruteur IA, un assistant vocal, un agent tiers — les surfaces d'attaque se multiplient de façon exponentielle. Une faille dans un maillon peut compromettre l'ensemble de la chaîne, avec des conséquences potentiellement graves sur des processus sensibles comme le recrutement ou la gestion des ressources humaines.
Dans un second temps, Codewall a poussé l'expérience plus loin en faisant imiter la voix de Donald Trump par son agent IA, afin de sonder les garde-fous du robot vocal de la plateforme ciblée. Cette phase du test visait à évaluer si les mécanismes de sécurité en place résistaient à des tentatives d'usurpation d'identité — un vecteur d'attaque particulièrement redouté dans les systèmes vocaux où l'authentification repose sur des signaux difficiles à falsifier en temps réel.
Cette démonstration de Codewall s'inscrit dans une tendance plus large où des chercheurs et des entreprises de sécurité utilisent des techniques offensives pour révéler les failles des systèmes IA avant que des acteurs malveillants ne les exploitent. Elle soulève des questions fondamentales sur la responsabilité des éditeurs de plateformes IA et sur la nécessité d'imposer des standards de sécurité spécifiques aux agents autonomes.


