
Le Fil IA : chaque grand laboratoire d'IA investit dans ses propres outils de développement
OpenAI vient d'annoncer l'acquisition d'Astral, l'équipe à l'origine des outils Python de référence uv, ruff et ty, qui rejoint désormais l'équipe Codex. Cette opération s'inscrit dans une tendance de fond : les grands laboratoires d'IA rachètent méthodiquement les briques fondamentales de l'écosystème des développeurs. Google DeepMind avait ouvert le bal en juillet dernier avec l'équipe Antigravity, suivi par Anthropic qui s'était offert Bun en décembre.
Ce mouvement stratégique illustre un pivot majeur dans la compétition entre laboratoires : il ne s'agit plus seulement de proposer la meilleure API ou le meilleur modèle, mais de contrôler l'ensemble de la chaîne d'outils du développeur. Chez OpenAI, la directrice générale Fidji Simo a officiellement renoncé aux "side quests" comme le Shopping — dont les taux de conversion se révèlent décevants — pour concentrer les ressources sur l'Enterprise et le Coding. La fusion des applications ChatGPT et Codex en un seul "superapp" est désormais une priorité explicite au plus haut niveau de l'organisation.
En parallèle, Cursor a lancé Composer 2, un modèle de code de niveau frontier issu d'un premier entraînement continu suivi d'une phase de reinforcement learning distribuée sur 3 à 4 clusters dans le monde. Les benchmarks publiés affichent 61,3 sur CursorBench, 61,7 sur Terminal-Bench 2.0 et 73,7 sur SWE-bench Multilingual, pour un tarif de 0,50 $ par million de tokens en entrée et 2,50 $ en sortie. L'équipe, composée d'environ 40 personnes, est entièrement dédiée aux tâches d'ingénierie logicielle. De son côté, Anthropic a élargi Claude Code avec des canaux de messagerie permettant aux développeurs d'interagir via leurs applications habituelles, en version research preview.
Ce cycle d'acquisitions et de lancements signale que le coding agentique est devenu le terrain de compétition central entre laboratoires — non plus comme fonctionnalité annexe, mais comme moteur récursif d'amélioration des modèles eux-mêmes, une dynamique désormais citée explicitement de Claude Code à MiniMax 2.7 comme facteur clé d'accélération.


