Aller au contenu principal
Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW
BusinessNext INpact6j

Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW

1 source couvre ce sujet·Source originale ↗·

Anthropic et Amazon ont annoncé lundi un accord stratégique de grande ampleur, combinant un investissement massif en capital et une promesse de dépenses garanties en infrastructure. Amazon injecte 5 milliards de dollars dans Anthropic, avec une option ouverte sur 20 milliards supplémentaires dont les conditions restent floues. En contrepartie, Anthropic s'engage à mobiliser l'équivalent de 5 gigawatts de puissance de calcul sur les infrastructures AWS, dont près d'1 GW de capacité Trainium2 et Trainium3 opérationnelle d'ici fin 2026. Ces engagements représenteraient, selon Anthropic, plus de 100 milliards de dollars de dépenses sur dix ans. L'accord inclut également un volet commercial inédit : la Claude Platform, l'accès API aux modèles d'Anthropic, sera intégrée directement dans l'écosystème AWS, avec une facturation unifiée et sans contrats séparés, actuellement en bêta privée.

Cet accord repose le cloud computing au centre de la compétition entre les grands laboratoires d'IA. Pour Amazon, verrouiller Anthropic comme client et partenaire stratégique sur ses puces Trainium renforce la crédibilité d'une gamme encore peu éprouvée face aux GPU de Nvidia. Pour Anthropic, l'intégration native dans AWS ouvre un accès direct à des centaines de milliers d'entreprises clientes du leader du cloud, sans passer par l'intermédiaire de Bedrock, le service agnostique d'Amazon qui dilue la visibilité des modèles individuels. La facturation unifiée réduit la friction d'adoption pour les équipes techniques, ce qui pourrait accélérer significativement la croissance commerciale d'Anthropic auprès des entreprises soumises à des contraintes de gouvernance strictes.

Cet accord s'inscrit dans une relation qui remonte à fin 2023, Amazon ayant déjà investi 8 milliards de dollars dans Anthropic en deux tranches. Il intervient dans un contexte de course aux engagements d'infrastructure entre les grands acteurs de l'IA : Anthropic avait évoqué fin octobre son intention d'exploiter un million de TPU Google, et affirme aujourd'hui utiliser un million de puces Trainium2. La superposition de ces engagements pose des questions sur leur compatibilité réelle et sur la précision des chiffres en équivalent-puissance, une unité de mesure devenue courante mais difficile à vérifier. Sur le plan financier, Anthropic profite de l'annonce pour réaffirmer une trajectoire de revenus annualisés supérieure à 3 milliards de dollars, contre 9 milliards de dollars projetés fin 2025, ce qui la placerait désormais devant OpenAI, dont Sam Altman revendiquait 2 milliards de dollars de chiffre d'affaires mensuel en mars dernier.

Impact France/UE

L'intégration de Claude Platform directement dans l'écosystème AWS simplifie l'accès aux modèles d'Anthropic pour les entreprises européennes déjà clientes du cloud Amazon, réduisant la friction d'adoption sans contrats séparés.

À lire aussi

Microsoft sort gagnant de l'accord OpenAI, malgré les risques du financement IA
1The Information AI 

Microsoft sort gagnant de l'accord OpenAI, malgré les risques du financement IA

Lors d'un événement organisé par The Information à New York ce lundi, intitulé "Financing the AI Revolution", des acteurs majeurs du capital-investissement ont échangé sur les risques liés au financement de l'IA et à la prochaine introduction en bourse de SpaceX. Ashley MacNeill, co-responsable des marchés de capitaux chez Vista Equity Partners, a résumé l'ambiguïté du moment avec une formule directe : "Il y a un million de façons que ça tourne mal, et seulement une poignée de façons que ça réussisse." Elle commentait notamment l'ampleur inédite de l'IPO envisagée par SpaceX, qui ambitionne de lever 75 milliards de dollars, soit approximativement l'équivalent du total des introductions en bourse américaines de l'année dernière selon Dealogic. Ce chiffre illustre l'échelle vertigineuse des ambitions financières dans l'écosystème technologique actuel. Pour les investisseurs institutionnels, une levée de fonds sans précédent de cette taille représente un problème structurel en soi : les marchés financiers fonctionnent sur la base de comparables historiques, de précédents, de modèles établis. Or SpaceX, comme avant elle certaines opérations liées à l'IA, sort du cadre habituel. MacNeill souligne que l'absence de référence comparable rend l'évaluation des risques particulièrement complexe, voire hasardeuse. Cet avertissement s'inscrit dans un contexte plus large de surchauffe des valorisations dans la tech et l'IA. L'événement de The Information réunissait des financeurs au coeur de ce mouvement, à un moment où Microsoft et OpenAI venaient d'annoncer une restructuration majeure de leur partenariat. L'enthousiasme des marchés pour l'IA et pour les licornes de la nouvelle économie spatiale masque des fondamentaux incertains. La question posée en filigrane par MacNeill est celle que peu d'investisseurs osent formuler ouvertement : dans quelle mesure les valorisations actuelles reposent-elles sur de la conviction, et dans quelle mesure sur de la pression de groupe ?

BusinessOpinion
1 source
Les IPO de SpaceX et d'entreprises IA font peser des risques sur l'essor du secteur, selon des investisseurs
2The Information AI 

Les IPO de SpaceX et d'entreprises IA font peser des risques sur l'essor du secteur, selon des investisseurs

Lors d'un événement sur le financement de l'IA organisé par The Information à New York ce lundi, des investisseurs ont mis en garde contre les risques que font peser plusieurs introductions en bourse majeures sur l'ensemble de l'écosystème IA. SpaceX, Anthropic et OpenAI pourraient toutes entrer en bourse au cours de la même année civile, ce qui représenterait, selon Alexa von Tobel, fondatrice et associée gérante d'Inspired Capital, "trois des plus grandes IPO de l'histoire, potentiellement toutes dans le même calendrier". À l'heure où les grandes entreprises tech et IA cherchent à lever des centaines de milliards de dollars en capitaux propres et en dette pour construire des centres de données, la pression sur ces opérations est considérable. Le risque est simple : si ces introductions en bourse déçoivent les marchés, l'enthousiasme général pour l'investissement dans l'IA pourrait se refroidir brutalement. Von Tobel a utilisé l'expression "cold water on reality" pour décrire ce scénario, où de mauvaises performances boursières rendraient les capitaux environnants "plus prudents". Dans un secteur où la confiance des investisseurs alimente directement la construction d'infrastructures massives, un signal négatif sur les marchés publics aurait des répercussions bien au-delà des seules entreprises concernées, affectant potentiellement des dizaines de milliards de dollars de projets de data centers en cours. Ce contexte s'inscrit dans une période d'investissement sans précédent dans l'infrastructure IA : Microsoft, Google, Amazon et Meta ont annoncé des plans d'investissement totalisant plusieurs centaines de milliards de dollars pour 2025 et 2026. OpenAI et Anthropic, encore privées, sont valorisées respectivement à plusieurs centaines de milliards de dollars, et leur entrée en bourse constituerait un test grandeur nature de la confiance du marché public dans la rentabilité future de l'IA générative. La performance de ces IPO servira de baromètre pour toute une génération d'investissements technologiques à venir.

UEUn échec ou une déception de ces IPO américaines pourrait refroidir l'appétit des investisseurs européens pour l'IA et ralentir le financement des startups et projets d'infrastructure IA en Europe.

BusinessOpinion
1 source
3VentureBeat AI 

Microsoft et OpenAI mettent fin à l'exclusivité de leur accord, ouvrant AWS et Google Cloud à OpenAI

Microsoft et OpenAI ont annoncé lundi une refonte majeure de leur partenariat, mettant fin à l'exclusivité commerciale qui liait les deux entreprises depuis 2019. Selon les nouvelles modalités, OpenAI peut désormais distribuer ses produits sur n'importe quel fournisseur cloud, y compris Amazon Web Services et Google Cloud, une rupture avec l'accord initial qui réservait exclusivement à Azure l'hébergement de l'API d'OpenAI. Microsoft cesse de percevoir une part de revenus sur les accès aux modèles d'OpenAI via Azure, tandis qu'OpenAI continuera de reverser 20 % de ses recettes à Microsoft jusqu'en 2030, avec un plafond global désormais fixé. Microsoft conserve une licence sur la propriété intellectuelle d'OpenAI jusqu'en 2032, mais celle-ci est explicitement non exclusive. Les deux entreprises ont présenté cet accord dans des billets de blog publiés simultanément lundi. Cette restructuration ouvre la voie à OpenAI pour séduire les grandes entreprises qui exigent une flexibilité multi-cloud. Ces clients, le segment à la croissance la plus rapide d'OpenAI, refusaient de dépendre d'un seul fournisseur d'infrastructure. En permettant à OpenAI de vendre directement sur AWS et Google Cloud, l'accord lève un frein commercial majeur à un moment où la concurrence entre fournisseurs de modèles s'intensifie. Pour Microsoft, la fin de la part de revenus sur Azure représente un manque à gagner potentiel, mais l'entreprise conserve un accès privilégié et une licence sur la technologie d'OpenAI jusqu'en 2032. Pour l'industrie dans son ensemble, ce virage signale que même les alliances technologiques les plus exclusives cèdent sous la pression des réalités commerciales. Le partenariat originel remontait à 2019, quand Microsoft avait investi 1 milliard de dollars dans OpenAI, avant de porter ses engagements cumulés à plus de 13 milliards. En échange, Microsoft obtenait un accès commercial exclusif aux modèles d'OpenAI et à sa propriété intellectuelle. L'accord contenait même une clause philosophique singulière : l'exclusivité de Microsoft devait durer jusqu'à ce qu'OpenAI atteigne l'intelligence artificielle générale, dont la définition était laissée à la discrétion du conseil d'administration d'OpenAI. Ce modèle fonctionnait quand OpenAI n'était qu'un laboratoire de recherche, mais l'explosion de ChatGPT fin 2022 et la montée en flèche des revenus vers plusieurs milliards de dollars annuels ont rendu la contrainte insoutenable. La directrice des revenus d'OpenAI, Denise Dresser, avait récemment reconnu en interne que le partenariat "limitait la capacité de l'entreprise à rejoindre les clients là où ils se trouvent". Après des mois de tensions en coulisses, de contradictions publiques et de menaces de litiges, les deux entreprises ont choisi de transformer leur alliance exclusive en une relation commerciale stratégique mais nettement plus souple.

UELes entreprises européennes utilisant OpenAI gagnent en flexibilité multi-cloud, pouvant désormais déployer les modèles sur AWS et Google Cloud sans dépendance exclusive à Azure.

BusinessOpinion
1 source
4SCMP Tech 

DeepSeek propose son modèle V4 à 97 % moins cher que GPT-5.5 d'OpenAI

DeepSeek a annoncé dimanche une baisse drastique des tarifs de ses modèles d'intelligence artificielle, dont son dernier modèle V4, désormais proposé à 97 % moins cher que les produits d'OpenAI. Concrètement, le coût minimum des entrées en cache pour les utilisateurs d'API tombe à environ 0,14 dollar par million de tokens, soit un dixième du prix précédent. Cette réduction s'applique aux "input cache hits", c'est-à-dire aux situations où un contexte déjà traité est réutilisé, ce qui concerne une grande partie des appels API en production. Cette annonce pourrait déclencher une nouvelle guerre des prix dans un secteur déjà sous pression. Pour les développeurs et les entreprises qui s'appuient sur des API de LLMs pour leurs applications, un écart de prix de 97 % par rapport à GPT-5.5 d'OpenAI représente un argument économique difficile à ignorer. Cela contraint directement les acteurs occidentaux à revoir leur stratégie tarifaire ou à justifier différemment la valeur de leurs modèles. DeepSeek s'est imposé début 2025 comme un compétiteur sérieux face aux géants américains, notamment avec son modèle R1 qui avait surpris l'industrie par ses performances à coût réduit. La startup chinoise capitalise sur des architectures optimisées et des coûts d'infrastructure inférieurs pour casser les prix. Cette dynamique s'inscrit dans une rivalité technologique plus large entre la Chine et les États-Unis sur le terrain de l'IA, où la course à la performance s'est progressivement doublée d'une course aux prix accessibles.

UELes développeurs et entreprises européennes utilisant des APIs LLM peuvent réduire drastiquement leurs coûts d'inférence, tout en bénéficiant d'une pression à la baisse sur les tarifs des autres fournisseurs présents sur le marché européen.

BusinessOpinion
1 source