Aller au contenu principal
Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic
BusinessLe Big Data1sem

Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic

1 source couvre ce sujet·Source originale ↗·

Eric Boyd a quitté Microsoft la semaine dernière après près de 17 ans au sein de l'entreprise pour rejoindre Anthropic en tant que responsable de l'ensemble de l'infrastructure. Boyd avait intégré Microsoft en 2009 à Redmond, d'abord à la tête de Bing Ads, avant de devenir président de la plateforme IA en 2015, puis de prendre la direction d'Azure AI en 2018 sur nomination de Satya Nadella. Dans ce rôle, il a supervisé le développement des grands modèles de langage de Microsoft et planifié les clusters de calcul utilisés par OpenAI pour entraîner et faire tourner ses modèles, consolidant ainsi la position de Microsoft comme acteur incontournable du cloud IA. Avant cela, il avait passé neuf ans chez Yahoo comme vice-président de l'ingénierie de plateforme, qu'il avait quitté en 2008.

Chez Anthropic, Boyd n'occupera pas un simple poste administratif : il est chargé de faire évoluer l'infrastructure critique qui permet à l'entreprise d'héberger, déployer et opérer ses modèles à très grande échelle. Sa mission répond à une urgence concrète, la demande pour les services Claude, et en particulier Claude Code, a connu une croissance explosive ces six derniers mois. Rahul Patil, directeur technique d'Anthropic, a précisé sur LinkedIn que Boyd apportera son expertise des infrastructures pour modèles de base à un moment où la scalabilité devient le principal défi opérationnel de l'entreprise. Pour les utilisateurs de Claude et les entreprises qui s'appuient sur l'API, cette nomination signifie qu'Anthropic mise sérieusement sur sa capacité à tenir la charge, et pas seulement sur la qualité de ses modèles.

Ce recrutement s'inscrit dans une séquence d'accélération majeure pour Anthropic. La startup a levé 30 milliards de dollars en février 2026 lors d'un tour de table de série G mené par GIC et Coatue, avec la participation de Microsoft et Nvidia, portant sa valorisation à 380 milliards de dollars. Son chiffre d'affaires annuel récurrent a bondi à 30 milliards de dollars, contre environ 9 milliards fin 2025. Parallèlement, Anthropic recrute activement des profils expérimentés du cloud, deux anciens dirigeants de Google auraient déjà rejoint l'entreprise selon The Information, et négocie pour sécuriser plus de 10 GW de capacité de calcul dans les prochaines années. Un accord avec Google et Broadcom prévoit également le développement ou la location de 3,5 GW de TPU à partir de 2027. L'arrivée de Boyd, l'un des architectes de l'infrastructure IA de Microsoft, illustre qu'Anthropic ne cherche plus seulement à produire les meilleurs modèles : elle veut aussi construire la plomberie pour les délivrer au monde entier.

💬 Le point de vue du dev

L'homme qui planifiait les clusters d'entraînement d'OpenAI chez Azure débarque chez Anthropic pour prendre toute l'infrastructure. Bon, les modèles Claude sont déjà excellents, mais si l'infra flanche quand Claude Code explose en prod, tout le reste ne sert à rien, et Boyd a construit exactement cette plomberie à l'échelle industrielle pendant des années. C'est le recrutement qui dit que la course n'est plus seulement sur les modèles.

À lire aussi

Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise
1Le Big Data 

Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise

Cursor AI, la start-up américaine spécialisée dans les agents de programmation assistée par intelligence artificielle, est en discussions avancées pour boucler un tour de table de 2 milliards de dollars qui porterait sa valorisation au-delà des 50 milliards. L'opération serait co-dirigée par Andreessen Horowitz, avec la participation de Nvidia, Thrive Capital, et d'autres investisseurs déjà présents au capital comme Accel, Coatue, DST Global et Google. Ce nouveau round intervient quelques mois seulement après une levée de 2,3 milliards de dollars annoncée en novembre 2025, qui valorisait alors l'entreprise à 29,3 milliards, elle-même précédée d'un tour de 900 millions de dollars en juin de la même année. En moins d'un an, Cursor AI aurait donc capté plus de 5 milliards de dollars de financement cumulé, un rythme rarissime même dans le secteur de l'IA. La start-up revendique par ailleurs plus d'un milliard de dollars de revenus annualisés et se présente comme le système qui génère aujourd'hui le plus de code au monde parmi les agents IA. Ce niveau de valorisation traduit une conviction forte des investisseurs : les outils de développement augmentés par l'IA sont en train de devenir une infrastructure critique pour les entreprises. Les agents de Cursor ne se contentent plus de suggérer des lignes de code, ils génèrent des fonctionnalités complètes, corrigent des erreurs, interagissent avec des bases de code complexes, et depuis février 2026, testent eux-mêmes leurs modifications tout en documentant leurs actions via vidéos, journaux détaillés et captures d'écran. Ces capacités de traçabilité répondent directement aux exigences des grandes organisations en matière de gouvernance et de conformité. Pour les équipes d'ingénierie, l'enjeu est concret : accélérer les cycles de livraison, réduire les coûts de développement, et réorienter les développeurs humains vers des tâches à plus forte valeur ajoutée. Cursor AI n'évolue plus dans un espace vide. Depuis que la start-up a défriché ce marché, Google, OpenAI et Anthropic ont lancé leurs propres solutions d'assistance au code, validant par là même la pertinence du créneau. Cette concurrence frontale avec des acteurs disposant de ressources quasi illimitées explique en partie la cadence effrénée des levées de fonds : il s'agit de consolider une avance technologique et commerciale avant que le marché ne se fragmente. La présence simultanée de fonds de capital-risque de premier rang et de géants industriels comme Nvidia ou Google au capital de Cursor signale que l'écosystème du développement logiciel entre dans une phase de restructuration profonde, où les plateformes d'IA ne sont plus de simples outils mais des partenaires de production à part entière.

UELa consolidation rapide du marché des agents de développement IA par des acteurs américains très capitalisés réduit l'espace pour l'émergence d'alternatives européennes compétitives dans ce segment.

BusinessOpinion
1 source
Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile
2Le Big Data 

Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile

Stellantis et Microsoft ont officialisé le 16 avril 2026 un partenariat stratégique de cinq ans destiné à accélérer la transformation numérique du constructeur automobile franco-italo-américain. L'accord prévoit le co-développement de plus de 100 cas d'usage concrets intégrant l'intelligence artificielle dans des domaines aussi variés que le développement produit, la validation, les tests, la maintenance prédictive et la relation client. Sur le plan infrastructure, Stellantis migre l'essentiel de son système informatique vers le cloud Azure de Microsoft, avec un objectif de réduction de 60 % de l'empreinte de ses centres de données d'ici 2029. Le groupe a également déployé 20 000 licences Microsoft 365 Copilot auprès de ses collaborateurs, accompagnées de programmes de formation pour ancrer l'IA dans les pratiques quotidiennes des équipes d'ingénierie, de production et de support. Ce partenariat aura des répercussions concrètes à plusieurs niveaux. Pour les équipes internes, l'IA permettra de détecter plus tôt les anomalies en production, de raccourcir les cycles de validation et d'accélérer la mise sur le marché de nouvelles fonctionnalités logicielles. Pour les clients, certains véhicules pourront suggérer des modes de conduite plus économes ou anticiper des besoins de maintenance avant même qu'une panne survienne. En matière de cybersécurité, Stellantis prévoit de renforcer son centre mondial de cyberdéfense en s'appuyant sur des analyses pilotées par l'IA, couvrant à la fois les systèmes informatiques internes, les véhicules connectés, les sites industriels et les services numériques, dans le but d'anticiper les menaces et de protéger les données clients. Ce rapprochement s'inscrit dans une dynamique de fond qui secoue l'ensemble de l'industrie automobile traditionnelle. Face à la montée en puissance des constructeurs chinois, structurellement plus agiles sur le logiciel et les données, les acteurs historiques comme Stellantis, Volkswagen ou Renault intensifient leurs alliances technologiques pour combler un retard accumulé depuis des années. Ned Curic, directeur de l'ingénierie et de la technologie de Stellantis, a explicitement présenté cette collaboration comme un levier pour « accélérer le déploiement de l'IA dans toute l'entreprise ». La dépendance croissante des véhicules modernes aux logiciels rend cette transformation à la fois urgente et risquée : plus une voiture est connectée, plus elle constitue une cible potentielle pour des cyberattaques, ce qui explique la place centrale accordée à la sécurité dans l'accord. Microsoft, de son côté, consolide ainsi sa position dans le secteur automobile, un marché stratégique où Azure et ses outils d'IA générative sont en concurrence directe avec Google Cloud et AWS.

UEStellantis, maison-mère de Peugeot, Citroën et DS, intègre l'IA dans ses opérations françaises et migre vers Azure, ce qui aura un impact direct sur ses dizaines de milliers de salariés en France et sur la compétitivité de la filière automobile hexagonale face aux constructeurs chinois.

BusinessActu
1 source
Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant
3FrenchWeb 

Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant

Sephora a annoncé fin mars à Las Vegas, lors de la conférence Shoptalk Spring, un partenariat stratégique avec OpenAI pour intégrer ChatGPT au cœur de son programme de fidélité Beauty Insider. Ce qui distingue cet accord de simples expérimentations marketing : l'enseigne confie à l'IA les données de ses membres, un actif considéré comme l'un des plus précieux de l'entreprise. Sephora inaugure ainsi ce que l'industrie commence à appeler le « shopping agentique », où l'IA ne se contente plus de répondre à des questions mais agit pour le compte de l'utilisateur. Pour les quelque 34 millions de membres Beauty Insider aux États-Unis, cela signifie potentiellement une expérience d'achat entièrement personnalisée, pilotée par un assistant capable d'analyser l'historique d'achats, les préférences de marques et les tendances beauté en temps réel. L'enjeu dépasse la simple recommandation produit : en laissant une IA accéder aux données comportementales de ses clients les plus fidèles, Sephora parie que la personnalisation de masse peut devenir un avantage concurrentiel durable face à la concurrence en ligne et aux plateformes comme Amazon. Ce partenariat s'inscrit dans une vague plus large de grands distributeurs qui cherchent à monétiser leurs données first-party à l'heure où les cookies tiers disparaissent. OpenAI, de son côté, accélère son virage vers les applications commerciales après avoir sécurisé des financements massifs, et le retail de luxe constitue un terrain d'expansion stratégique. La question qui reste ouverte est celle de la gouvernance : confier des données clients sensibles à un tiers comme OpenAI soulève des interrogations sur la souveraineté des données et la conformité au RGPD pour les opérations européennes de Sephora.

UESephora, entreprise française du groupe LVMH, confie des données clients sensibles à OpenAI, ce qui soulève des questions concrètes de conformité RGPD pour ses opérations européennes.

BusinessOpinion
1 source
☕️ OpenAI : trois départs successifs après l’arrêt de Sora
4Next INpact 

☕️ OpenAI : trois départs successifs après l’arrêt de Sora

Trois cadres d'OpenAI ont annoncé leur départ en l'espace de deux jours, les 17 et 18 avril 2026. Bill Peebles, responsable du projet Sora, a été le premier à quitter l'entreprise, quelques semaines après l'arrêt du générateur vidéo qu'il avait piloté. Dans un message posté sur X, il a salué la culture interne d'OpenAI, rappelant que son équipe avait réussi à produire de la vidéo haute définition 1080p multi-plans en seulement sept mois, malgré les doutes qui entouraient le projet dès juillet 2023. Le même jour, Kevin Weil, à la tête d'« OpenAI for Science », annonçait lui aussi son départ : son département, qui avait notamment lancé l'éditeur LaTeX Prism et le modèle GPT-Rosalind, est dissous et ses équipes redistribuées ailleurs dans l'organisation. Le lendemain, Srinivas Narayanan, directeur technique des applications B2B d'OpenAI, leur emboîtait le pas, évoquant les récents et prochains lancements produits comme signal que le moment était venu pour lui de passer la main. Ces départs simultanés de trois responsables de haut rang en quarante-huit heures constituent un signal fort sur l'état interne de l'entreprise. Ils touchent des pôles stratégiques très différents, la recherche vidéo, la science, et les applications professionnelles, ce qui suggère une recomposition organisationnelle profonde plutôt qu'une simple succession de décisions individuelles. Pour les clients enterprise et les partenaires institutionnels d'OpenAI, la dissolution d'équipes dédiées comme « OpenAI for Science » soulève des questions sur la continuité des projets en cours. Ces départs surviennent dans un contexte de réorganisation générale annoncée peu avant par OpenAI, à un moment particulièrement sensible : la société se prépare à une possible introduction en bourse en 2026. L'arrêt de Sora, produit phare du pôle vidéo, illustre les arbitrages douloureux que l'entreprise opère pour concentrer ses ressources sur ses axes les plus rentables. Dans un secteur où la guerre des talents est féroce, la perte simultanée de plusieurs figures internes pourrait aussi signaler des tensions sur la direction stratégique qu'OpenAI entend prendre dans la course à l'AGI.

UELa dissolution d'équipes comme 'OpenAI for Science' soulève des questions de continuité pour les partenaires institutionnels et clients enterprise européens d'OpenAI.

BusinessOpinion
1 source