
Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »
Le Pentagone a officiellement qualifié Anthropic de risque pour la chaîne d'approvisionnement, invoquant des préoccupations liées à la sécurité nationale. En cause : les « lignes rouges » que l'entreprise s'est fixées, des limites éthiques internes qui pourraient l'amener à désactiver ou restreindre ses technologies dans certains contextes militaires.
Le Département de la Défense estime que la possibilité qu'Anthropic puisse « tenter de désactiver sa technologie » au cours d'« opérations de guerre » constitue un risque inacceptable pour la sécurité nationale. Cette position illustre une tension croissante entre les engagements éthiques des laboratoires d'IA et les exigences opérationnelles des forces armées américaines, qui cherchent à intégrer des systèmes d'IA dans leurs chaînes de commandement et de décision.
Anthropic, fondée par d'anciens membres d'OpenAI et connue pour son approche dite de « sécurité de l'IA » (AI safety), a établi des politiques d'usage restreignant certaines applications létales ou autonomes de ses modèles. Le Pentagone interprète ces restrictions non pas comme une garantie de fiabilité, mais comme un vecteur d'instabilité opérationnelle — le risque étant qu'un système critique puisse être coupé unilatéralement par son fournisseur en pleine opération militaire.
Cette classification pourrait avoir des conséquences significatives sur la capacité d'Anthropic à décrocher des contrats fédéraux, à un moment où OpenAI, Google et Microsoft renforcent activement leur présence dans le secteur de la défense. Elle pose plus largement la question de savoir si les laboratoires d'IA fondés sur des principes éthiques stricts peuvent coexister avec les impératifs souverains des États.
Ce conflit entre éthique d'entreprise et exigences militaires américaines alimente le débat européen sur la souveraineté IA et les conditions d'usage des LLMs dans les secteurs sensibles.


