
Le proxy IA populaire LiteLLM infecté par un malware qui se propage dans les clusters Kubernetes
LiteLLM, l'un des proxys open source les plus utilisés pour centraliser les appels aux API d'IA, a été compromis par un malware capable de dérober des identifiants et de se propager automatiquement au sein des infrastructures cloud. L'attaque cible directement les clusters Kubernetes, environnement de déploiement privilégié des applications d'IA en production.
L'incident illustre une menace émergente et particulièrement sérieuse : la chaîne d'approvisionnement logicielle des outils d'IA devient une surface d'attaque de premier plan. LiteLLM étant utilisé par de nombreuses équipes pour router des requêtes vers des modèles comme GPT-4, Claude ou Gemini, une compromission à ce niveau donne potentiellement accès à l'ensemble des clés API — et donc aux ressources de calcul et aux données traitées — des organisations affectées.
Jim Fan, directeur de recherche en IA chez NVIDIA, a publiquement réagi en qualifiant cette attaque de représentante d'une nouvelle classe de menaces visant spécifiquement les agents IA. La capacité du malware à se propager latéralement dans les clusters Kubernetes amplifie considérablement son rayon d'action : une seule entrée peut compromettre l'ensemble d'une infrastructure distribuée. Le vecteur exact de l'infection — dépendance empoisonnée, compromission du dépôt, ou autre — n'est pas précisé dans les informations disponibles.
Cet incident devrait accélérer la prise de conscience sur la sécurité des outils de la chaîne IA, souvent déployés rapidement sans audit rigoureux. Les équipes utilisant LiteLLM sont invitées à auditer immédiatement leurs déploiements, rotation des clés API en priorité. Plus largement, la sécurisation des proxys et orchestrateurs IA s'impose désormais comme un enjeu critique au même titre que la sécurité des modèles eux-mêmes.
Les entreprises européennes utilisant LiteLLM dans leurs infrastructures Kubernetes sont exposées à un vol d'identifiants API et une compromission de leurs pipelines IA.
C'est exactement le scénario qu'on voyait venir : dès qu'un outil devient incontournable dans la stack IA, il devient une cible. LiteLLM, c'est le genre de brique que tout le monde installe vite fait sans trop regarder les dépendances. Kubernetes + vol de clés API + propagation latérale, ça peut faire très mal très vite.


