
IA de guerre : le Pentagone crée sa propre alternative à Anthropic
Le Pentagone développe ses propres modèles d'intelligence artificielle après la rupture avec Anthropic. C'est Cameron Stanley, Chief Digital and Artificial Intelligence Officer (CDAO) du département de la Défense américain, qui l'a confirmé auprès de Bloomberg. Ce virage stratégique marque une étape inédite : pour la première fois, l'armée américaine choisit de produire en interne ses propres systèmes de langage plutôt que de dépendre exclusivement de fournisseurs civils.
Le conflit avec Anthropic est à l'origine de cette décision. La société avait imposé des restrictions claires sur l'usage de son IA Claude : pas de surveillance de masse des citoyens, pas d'armements autonomes capables de tirer sans intervention humaine. Des lignes rouges que le CDAO a refusé d'accepter, exigeant un accès total, y compris sur des réseaux classifiés. Fin février 2026, le Pentagone a posé un ultimatum de 72 heures à Anthropic pour lever ces restrictions — sous peine de perdre un contrat de 200 millions de dollars et d'être placé sur liste noire. Anthropic n'a pas cédé.
Les nouveaux modèles du Pentagone seront intégrés directement dans des environnements gouvernementaux sécurisés, reprenant ainsi le contrôle total sur les données, les usages et les limites d'emploi. Stanley reste discret sur les détails techniques, mais laisse entendre que les premiers déploiements sont imminents. Parallèlement, le DoD maintient ses partenariats avec OpenAI — dont un accord prévoit le déploiement de modèles sur réseaux classifiés avec supervision d'ingénieurs de la firme — et avec xAI d'Elon Musk.
Cette stratégie d'autonomisation présente néanmoins des défis considérables : développer des modèles compétitifs exige des ressources massives et une expertise rare, même pour une organisation de l'envergure du Pentagone. Le choix de conserver OpenAI et xAI en parallèle suggère que l'objectif n'est pas de tout internaliser, mais de ne plus jamais se retrouver tributaire d'un acteur privé capable de dire non.
Le développement d'IA militaire souveraine par le Pentagone accentue la pression sur l'UE pour définir sa propre doctrine d'usage de l'IA dans le secteur défense, notamment dans le cadre du règlement IA Act qui encadre les systèmes à haut risque.


