
L'IA part en guerre : le baromètre de l'emballement
L'intelligence artificielle s'invite désormais dans les salles de guerre. Anthropic et le Pentagone se sont d'abord affrontés sur la manière de militariser Claude, le modèle phare de la startup dite "éthique" — avant qu'OpenAI ne signe un accord avec l'armée américaine, qualifié d'"opportuniste et bâclé" par ses détracteurs. Résultat : Anthropic accélère aujourd'hui des frappes américaines contre l'Iran, une évolution qui contraste violemment avec les principes fondateurs de l'entreprise.
Ce basculement illustre une tension de fond qui traverse le secteur : les ambitions commerciales et géopolitiques prennent le pas sur les garde-fous éthiques que les laboratoires d'IA avaient eux-mêmes posés. À Londres, la plus grande manifestation anti-IA jamais organisée dans la capitale britannique témoigne d'une défiance croissante du grand public, tandis que les utilisateurs désertent ChatGPT en nombre significatif — signal d'une érosion de confiance qui pourrait peser sur les valorisations.
Sur un registre plus décalé, les agents IA s'imposent comme la tendance virale du moment. OpenAI a recruté le créateur d'OpenClaw, un agent ayant connu un succès viral en ligne. Meta, de son côté, a racheté Moltbook, plateforme où des agents IA semblent s'interroger sur leur propre existence et inventent de nouvelles religions — dont le "Crustafarianism". Plus concret : sur RentAHuman, des bots recrutent désormais des humains pour livrer des gummies au CBD, inversant le paradigme de la disruption technologique.
L'avenir qui se dessine n'est donc pas celui d'une IA qui vole les emplois, mais d'une IA qui devient patron, soldat et prophète — parfois simultanément.
Le débat sur l'utilisation militaire de l'IA par des acteurs américains renforce l'urgence pour l'UE de définir des garde-fous clairs dans l'AI Act concernant les applications de défense.


