Aller au contenu principal

Business

50 sur 598 articles

Business de la robotique : levées de fonds, acquisitions, partenariats stratégiques, IPO, valorisations et stratégies d'entreprise.

Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise
1Le Big Data BusinessOpinion

Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise

Cursor AI, la start-up américaine spécialisée dans les agents de programmation assistée par intelligence artificielle, est en discussions avancées pour boucler un tour de table de 2 milliards de dollars qui porterait sa valorisation au-delà des 50 milliards. L'opération serait co-dirigée par Andreessen Horowitz, avec la participation de Nvidia, Thrive Capital, et d'autres investisseurs déjà présents au capital comme Accel, Coatue, DST Global et Google. Ce nouveau round intervient quelques mois seulement après une levée de 2,3 milliards de dollars annoncée en novembre 2025, qui valorisait alors l'entreprise à 29,3 milliards, elle-même précédée d'un tour de 900 millions de dollars en juin de la même année. En moins d'un an, Cursor AI aurait donc capté plus de 5 milliards de dollars de financement cumulé, un rythme rarissime même dans le secteur de l'IA. La start-up revendique par ailleurs plus d'un milliard de dollars de revenus annualisés et se présente comme le système qui génère aujourd'hui le plus de code au monde parmi les agents IA. Ce niveau de valorisation traduit une conviction forte des investisseurs : les outils de développement augmentés par l'IA sont en train de devenir une infrastructure critique pour les entreprises. Les agents de Cursor ne se contentent plus de suggérer des lignes de code, ils génèrent des fonctionnalités complètes, corrigent des erreurs, interagissent avec des bases de code complexes, et depuis février 2026, testent eux-mêmes leurs modifications tout en documentant leurs actions via vidéos, journaux détaillés et captures d'écran. Ces capacités de traçabilité répondent directement aux exigences des grandes organisations en matière de gouvernance et de conformité. Pour les équipes d'ingénierie, l'enjeu est concret : accélérer les cycles de livraison, réduire les coûts de développement, et réorienter les développeurs humains vers des tâches à plus forte valeur ajoutée. Cursor AI n'évolue plus dans un espace vide. Depuis que la start-up a défriché ce marché, Google, OpenAI et Anthropic ont lancé leurs propres solutions d'assistance au code, validant par là même la pertinence du créneau. Cette concurrence frontale avec des acteurs disposant de ressources quasi illimitées explique en partie la cadence effrénée des levées de fonds : il s'agit de consolider une avance technologique et commerciale avant que le marché ne se fragmente. La présence simultanée de fonds de capital-risque de premier rang et de géants industriels comme Nvidia ou Google au capital de Cursor signale que l'écosystème du développement logiciel entre dans une phase de restructuration profonde, où les plateformes d'IA ne sont plus de simples outils mais des partenaires de production à part entière.

UELa consolidation rapide du marché des agents de développement IA par des acteurs américains très capitalisés réduit l'espace pour l'émergence d'alternatives européennes compétitives dans ce segment.

1 source
Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile
2Le Big Data 

Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile

Stellantis et Microsoft ont officialisé le 16 avril 2026 un partenariat stratégique de cinq ans destiné à accélérer la transformation numérique du constructeur automobile franco-italo-américain. L'accord prévoit le co-développement de plus de 100 cas d'usage concrets intégrant l'intelligence artificielle dans des domaines aussi variés que le développement produit, la validation, les tests, la maintenance prédictive et la relation client. Sur le plan infrastructure, Stellantis migre l'essentiel de son système informatique vers le cloud Azure de Microsoft, avec un objectif de réduction de 60 % de l'empreinte de ses centres de données d'ici 2029. Le groupe a également déployé 20 000 licences Microsoft 365 Copilot auprès de ses collaborateurs, accompagnées de programmes de formation pour ancrer l'IA dans les pratiques quotidiennes des équipes d'ingénierie, de production et de support. Ce partenariat aura des répercussions concrètes à plusieurs niveaux. Pour les équipes internes, l'IA permettra de détecter plus tôt les anomalies en production, de raccourcir les cycles de validation et d'accélérer la mise sur le marché de nouvelles fonctionnalités logicielles. Pour les clients, certains véhicules pourront suggérer des modes de conduite plus économes ou anticiper des besoins de maintenance avant même qu'une panne survienne. En matière de cybersécurité, Stellantis prévoit de renforcer son centre mondial de cyberdéfense en s'appuyant sur des analyses pilotées par l'IA, couvrant à la fois les systèmes informatiques internes, les véhicules connectés, les sites industriels et les services numériques, dans le but d'anticiper les menaces et de protéger les données clients. Ce rapprochement s'inscrit dans une dynamique de fond qui secoue l'ensemble de l'industrie automobile traditionnelle. Face à la montée en puissance des constructeurs chinois, structurellement plus agiles sur le logiciel et les données, les acteurs historiques comme Stellantis, Volkswagen ou Renault intensifient leurs alliances technologiques pour combler un retard accumulé depuis des années. Ned Curic, directeur de l'ingénierie et de la technologie de Stellantis, a explicitement présenté cette collaboration comme un levier pour « accélérer le déploiement de l'IA dans toute l'entreprise ». La dépendance croissante des véhicules modernes aux logiciels rend cette transformation à la fois urgente et risquée : plus une voiture est connectée, plus elle constitue une cible potentielle pour des cyberattaques, ce qui explique la place centrale accordée à la sécurité dans l'accord. Microsoft, de son côté, consolide ainsi sa position dans le secteur automobile, un marché stratégique où Azure et ses outils d'IA générative sont en concurrence directe avec Google Cloud et AWS.

UEStellantis, maison-mère de Peugeot, Citroën et DS, intègre l'IA dans ses opérations françaises et migre vers Azure, ce qui aura un impact direct sur ses dizaines de milliers de salariés en France et sur la compétitivité de la filière automobile hexagonale face aux constructeurs chinois.

BusinessActu
1 source
Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant
3FrenchWeb 

Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant

Sephora a annoncé fin mars à Las Vegas, lors de la conférence Shoptalk Spring, un partenariat stratégique avec OpenAI pour intégrer ChatGPT au cœur de son programme de fidélité Beauty Insider. Ce qui distingue cet accord de simples expérimentations marketing : l'enseigne confie à l'IA les données de ses membres, un actif considéré comme l'un des plus précieux de l'entreprise. Sephora inaugure ainsi ce que l'industrie commence à appeler le « shopping agentique », où l'IA ne se contente plus de répondre à des questions mais agit pour le compte de l'utilisateur. Pour les quelque 34 millions de membres Beauty Insider aux États-Unis, cela signifie potentiellement une expérience d'achat entièrement personnalisée, pilotée par un assistant capable d'analyser l'historique d'achats, les préférences de marques et les tendances beauté en temps réel. L'enjeu dépasse la simple recommandation produit : en laissant une IA accéder aux données comportementales de ses clients les plus fidèles, Sephora parie que la personnalisation de masse peut devenir un avantage concurrentiel durable face à la concurrence en ligne et aux plateformes comme Amazon. Ce partenariat s'inscrit dans une vague plus large de grands distributeurs qui cherchent à monétiser leurs données first-party à l'heure où les cookies tiers disparaissent. OpenAI, de son côté, accélère son virage vers les applications commerciales après avoir sécurisé des financements massifs, et le retail de luxe constitue un terrain d'expansion stratégique. La question qui reste ouverte est celle de la gouvernance : confier des données clients sensibles à un tiers comme OpenAI soulève des interrogations sur la souveraineté des données et la conformité au RGPD pour les opérations européennes de Sephora.

UESephora, entreprise française du groupe LVMH, confie des données clients sensibles à OpenAI, ce qui soulève des questions concrètes de conformité RGPD pour ses opérations européennes.

BusinessOpinion
1 source
☕️ OpenAI : trois départs successifs après l’arrêt de Sora
4Next INpact 

☕️ OpenAI : trois départs successifs après l’arrêt de Sora

Trois cadres d'OpenAI ont annoncé leur départ en l'espace de deux jours, les 17 et 18 avril 2026. Bill Peebles, responsable du projet Sora, a été le premier à quitter l'entreprise, quelques semaines après l'arrêt du générateur vidéo qu'il avait piloté. Dans un message posté sur X, il a salué la culture interne d'OpenAI, rappelant que son équipe avait réussi à produire de la vidéo haute définition 1080p multi-plans en seulement sept mois, malgré les doutes qui entouraient le projet dès juillet 2023. Le même jour, Kevin Weil, à la tête d'« OpenAI for Science », annonçait lui aussi son départ : son département, qui avait notamment lancé l'éditeur LaTeX Prism et le modèle GPT-Rosalind, est dissous et ses équipes redistribuées ailleurs dans l'organisation. Le lendemain, Srinivas Narayanan, directeur technique des applications B2B d'OpenAI, leur emboîtait le pas, évoquant les récents et prochains lancements produits comme signal que le moment était venu pour lui de passer la main. Ces départs simultanés de trois responsables de haut rang en quarante-huit heures constituent un signal fort sur l'état interne de l'entreprise. Ils touchent des pôles stratégiques très différents, la recherche vidéo, la science, et les applications professionnelles, ce qui suggère une recomposition organisationnelle profonde plutôt qu'une simple succession de décisions individuelles. Pour les clients enterprise et les partenaires institutionnels d'OpenAI, la dissolution d'équipes dédiées comme « OpenAI for Science » soulève des questions sur la continuité des projets en cours. Ces départs surviennent dans un contexte de réorganisation générale annoncée peu avant par OpenAI, à un moment particulièrement sensible : la société se prépare à une possible introduction en bourse en 2026. L'arrêt de Sora, produit phare du pôle vidéo, illustre les arbitrages douloureux que l'entreprise opère pour concentrer ses ressources sur ses axes les plus rentables. Dans un secteur où la guerre des talents est féroce, la perte simultanée de plusieurs figures internes pourrait aussi signaler des tensions sur la direction stratégique qu'OpenAI entend prendre dans la course à l'AGI.

UELa dissolution d'équipes comme 'OpenAI for Science' soulève des questions de continuité pour les partenaires institutionnels et clients enterprise européens d'OpenAI.

BusinessOpinion
1 source
Ce que xAI et OpenAI devraient acquérir ensuite
5The Information AI 

Ce que xAI et OpenAI devraient acquérir ensuite

Dans un contexte où les fusions et acquisitions s'accélèrent dans le secteur de l'intelligence artificielle, plusieurs opérations stratégiques semblent aujourd'hui logiques selon les observateurs de la Silicon Valley. La plus évidente concerne xAI, la société d'Elon Musk, et Cursor, l'éditeur de code assisté par IA. Les deux entreprises entretiennent déjà une relation commerciale : xAI a accepté de vendre de la capacité de calcul à Cursor, une ressource devenue si rare que les analystes de SemiAnalysis la comparent à « essayer de réserver des billets d'avion sur le dernier vol au départ ». Un rapprochement capitalistique donnerait à Cursor un accès privilégié aux stocks de puissance de calcul de xAI, tandis que cette dernière ferait son entrée sur le marché enterprise et renforcerait sa position dans la guerre des outils de développement assistés par IA. Deuxième scénario envisagé : une acquisition de Snap par OpenAI. Snap, en difficulté persistante malgré des restructurations successives et des suppressions de postes récurrentes, est dirigée par Evan Spiegel qui détient un contrôle absolu grâce à ses actions à droit de vote multiple. Pourtant, OpenAI vient de démontrer avec son rachat de TBPN qu'elle est capable de convaincre des fondateurs réticents à vendre. Enfin, du côté des médias, Vox Media, qui possède plus de dix marques dont New York Magazine, The Verge ou Vulture, serait en train de préparer une vente par morceaux. Jay Penske, actionnaire partiel de la maison mère, serait un acquéreur naturel pour Vulture, tandis que la mannequin et entrepreneuse Karli Kloss aurait manifesté son intérêt pour The Cut. Ces hypothèses illustrent une tension profonde qui remodèle l'écosystème technologique et médiatique. Pour xAI, absorber Cursor serait bien plus qu'une consolidation technique : ce serait un accès immédiat à une base d'utilisateurs développeurs et à des revenus enterprise que Grok seul ne génère pas encore. Pour OpenAI, racheter Snap représenterait une porte d'entrée dans le hardware grand public, une ambition que Sam Altman nourrit depuis longtemps face à Apple et Meta. Quant à Vox Media, la vente par actifs signalerait l'échec du modèle du « groupe média digital à grande échelle » qui semblait prometteur au milieu des années 2010. Ces mouvements potentiels s'inscrivent dans une dynamique plus large où les géants de l'IA cherchent à convertir leur avance en infrastructure en avantages commerciaux durables. La course au calcul, théorisée par SemiAnalysis, crée des dépendances structurelles qui rendent les alliances inévitables. Snap, de son côté, représente le symbole d'une génération de plateformes sociales qui n'ont jamais réussi à transformer leur popularité en rentabilité stable, avec une valorisation en chute libre malgré une audience de plusieurs centaines de millions d'utilisateurs. Si OpenAI venait à acquérir Snap, cela placerait directement la société de Sam Altman en concurrence frontale avec Meta sur le terrain du hardware et des lunettes connectées, un duel que Mark Zuckerberg, lui, semble avoir anticipé de longue date.

💬 xAI/Cursor, c'est la seule hypothèse qui tient vraiment : quand le compute devient la ressource rare, tu intègres en amont ou tu dépends de quelqu'un d'autre indéfiniment. Pour OpenAI/Snap, c'est surtout une façon de racheter une audience massive à prix cassé, en espérant que Sam Altman sait ce qu'il ferait avec des lunettes connectées face à Zuckerberg. Reste à voir si Spiegel cède.

BusinessOpinion
1 source
Le directeur financier d'Anthropic exerce son influence dans l'ombre
6The Information AI 

Le directeur financier d'Anthropic exerce son influence dans l'ombre

Krishna Rao, directeur financier d'Anthropic, s'est imposé comme l'une des figures les plus influentes de la startup en coulisses depuis son arrivée en 2024. Alors qu'Anthropic disposait déjà d'un accord exclusif avec Google pour ses besoins en cloud computing, Rao a rapidement plaidé pour une diversification des partenariats, ciblant plusieurs fournisseurs de puces et de cloud simultanément. Cette stratégie a été discutée notamment avec Byron Deeter, associé chez Bessemer Venture Partners, l'un des investisseurs d'Anthropic. Cette décision de multiplier les partenaires d'infrastructure représente un virage stratégique majeur pour Anthropic. Selon Deeter, c'est Rao qui a compris qu'Anthropic pouvait accélérer sa croissance bien plus vite en ne dépendant pas d'un seul fournisseur. Dans un secteur où l'accès aux GPU et à la puissance de calcul conditionne directement la vitesse de développement des modèles d'IA, diversifier ses sources d'approvisionnement est un avantage compétitif concret face à OpenAI ou Google DeepMind. Anthropic est une entreprise atypique, peuplée de chercheurs en sécurité de l'IA, d'un philosophe maison et d'une direction prête à affronter les plus grandes institutions. Dans ce contexte idéologique fort, Rao incarne le contrepoids pragmatique et financier, celui qui transforme les ambitions en infrastructure durable. Sa discrétion tranche avec le profil public de Dario Amodei, le PDG, mais son influence sur l'architecture commerciale et les alliances industrielles de l'entreprise semble déterminante pour sa trajectoire à long terme.

💬 Un CFO qui diversifie les fournisseurs GPU au lieu de rester sous perfusion Google exclusive, c'est exactement le genre de décision structurelle qui fait la différence à l'échelle. Bon, ça ne fait pas les grands discours sur la sécurité de l'IA, mais sans infrastructure solide, les ambitions de Dario Amodei restent du vent. Ce sont souvent les profils discrets comme Rao qui évitent les catastrophes opérationnelles.

BusinessOpinion
1 source
Le responsable de Sora chez OpenAI quitte l'entreprise
7The Verge AI 

Le responsable de Sora chez OpenAI quitte l'entreprise

Bill Peebles, le responsable de l'équipe Sora chez OpenAI, a annoncé vendredi 11 avril 2026 son départ de l'entreprise. Cette décision intervient quelques semaines seulement après qu'OpenAI a mis en retrait son outil de génération vidéo Sora, relégué au second plan dans la feuille de route de la société. Dans un message publié sur X, Peebles a remercié Sam Altman, Mark Chen, Aditya Ramesh et Jakub Pachocki pour avoir soutenu un environnement de recherche permettant d'explorer des idées éloignées du cœur de métier de l'entreprise. Ce départ illustre un tournant stratégique majeur chez OpenAI, qui cherche désormais à éliminer les "side quests", c'est-à-dire les projets jugés périphériques. La société concentre ses ressources sur le développement d'outils de coding et sur les usages enterprise, considérés comme plus rentables et plus directement alignés avec ses objectifs commerciaux à court terme. Pour les équipes dédiées à la recherche fondamentale ou aux formats créatifs comme la vidéo, ce recentrage signifie moins de budget, moins de visibilité et, pour certains, une raison de partir. OpenAI avait lancé Sora début 2024 avec un impact médiatique considérable, promettant une révolution dans la génération vidéo par IA. Mais face à la concurrence de Runway, Kling ou Veo de Google, et sous la pression des investisseurs exigeant une rentabilité accélérée, la priorité a glissé vers des produits à retour sur investissement plus immédiat. Le départ de Peebles s'inscrit dans une série de changements internes qui signalent qu'OpenAI, valorisé à plus de 300 milliards de dollars, entre dans une phase d'industrialisation au détriment de l'exploration.

BusinessOpinion
1 source
L'IA tient-elle ses promesses ? Transformer l'élan vers l'IA en valeur mesurable
8VentureBeat AI 

L'IA tient-elle ses promesses ? Transformer l'élan vers l'IA en valeur mesurable

Les grandes entreprises traversent aujourd'hui ce que Brian Gracely, directeur de la stratégie de portefeuille chez Red Hat, appelle le moment "Day 2" de l'intelligence artificielle : la phase où les pilotes cèdent la place à la production, et où les questions de coût, de gouvernance et de rentabilité deviennent plus complexes que la construction des systèmes eux-mêmes. Lors d'une session de l'AI Impact Tour de VentureBeat, Gracely a illustré cette réalité avec un exemple frappant : des clients qui détiennent 50 000 licences de Microsoft Copilot sans savoir précisément ce que leurs employés en tirent, tout en payant pour ce qu'il décrit comme "le calcul informatique le plus cher du monde, parce que ce sont des GPU". Après deux ou trois cycles budgétaires consacrés à l'IA générative, les directions d'entreprise ne demandent plus "peut-on construire quelque chose ?" mais "obtenons-nous ce pour quoi nous payons ?" Le problème central n'est pas seulement le coût brut de l'infrastructure GPU : c'est l'absence d'instrumentation permettant de relier les dépenses aux résultats concrets, rendant quasi impossible la justification des renouvellements de contrats à grande échelle. Cette prise de conscience provoque un changement stratégique profond dans la manière dont les entreprises envisagent leur rapport à l'IA. Le modèle dominant des deux dernières années, payer un fournisseur au token, au siège ou à l'appel API en lui déléguant toute l'infrastructure, est de plus en plus remis en question. Gracely résume cette évolution : plutôt que d'être purement "consommateur de tokens", certaines organisations cherchent à devenir "productrices de tokens", en évaluant quels usages justifient de posséder ou louer directement des GPU, et si les cas d'usage nécessitent vraiment les modèles les plus avancés ou si des modèles ouverts plus légers suffisent. Cette décision n'est pas binaire : elle dépend de la tolérance au risque, de la nature des charges de travail et de la maturité de chaque organisation. Le paradoxe auquel font face les responsables financiers est bien réel. Le PDG d'Anthropic, Dario Amodei, a estimé que les coûts d'inférence chutent d'environ 60 % par an, et l'émergence de modèles open source comme DeepSeek a considérablement élargi les alternatives stratégiques disponibles. Pourtant, la baisse du coût unitaire ne se traduit pas par une réduction des factures totales : l'usage s'accélère à un rythme qui compense largement les gains d'efficacité. C'est une manifestation du paradoxe de Jevons, principe économique selon lequel l'amélioration de l'efficacité d'une ressource tend à augmenter sa consommation globale plutôt qu'à la réduire. Une entreprise qui triple son utilisation de l'IA pendant que les coûts diminuent de moitié dépense encore davantage qu'avant. Pour les décideurs, cela signifie que la maturité de l'IA en entreprise passe désormais par une discipline opérationnelle rigoureuse, et non plus par l'enthousiasme des premières expérimentations.

BusinessOpinion
1 source
Les utilisateurs quittent-ils ChatGPT ? Ce que révèlent les chiffres
9Le Big Data 

Les utilisateurs quittent-ils ChatGPT ? Ce que révèlent les chiffres

Selon un rapport annuel de Similarweb publié en avril 2026, ChatGPT a perdu 20 points de part de marché en douze mois, passant de 77,43 % à 57 % du trafic généré par les outils d'intelligence artificielle générative. Dans le même temps, Gemini de Google a franchi la barre des 25 % d'audience, quadruplant quasiment son score en un an grâce à une intégration agressive dans l'écosystème Google, Gmail, Android, Chrome. Claude, le modèle d'Anthropic, a lui presque triplé sa part, atteignant 6,02 % contre 1,40 % un an plus tôt, avec une accélération particulièrement marquée sur les derniers mois. Des acteurs plus spécialisés comme DeepSeek et Perplexity restent sous la barre des 4 %, mais contribuent eux aussi à l'érosion du leadership d'OpenAI. Grok de xAI recule, et Microsoft Copilot peine à maintenir sa position. Ce rééquilibrage du marché signale la fin du monopole de fait qu'OpenAI exerçait depuis le lancement grand public de ChatGPT fin 2022. Les utilisateurs, plus matures et mieux informés, multiplient désormais les outils selon leurs besoins : Claude pour la qualité rédactionnelle et la nuance, Gemini pour son intégration native dans les services Google, Perplexity pour la recherche documentée. Cette diversification des usages complique la fidélisation pour OpenAI, dont la croissance en volume reste réelle mais dont la dynamique ralentit sensiblement. Pour les entreprises qui ont misé sur un seul fournisseur d'IA, le signal est clair : le marché devient multi-modèles, et les stratégies d'intégration pèsent autant que la performance brute des systèmes. Ce glissement s'inscrit dans une compétition qui s'est considérablement intensifiée depuis 2025. Google, longtemps critiqué pour une réponse tardive à l'essor de ChatGPT, a su transformer son avantage structurel en arme concurrentielle : des milliards d'utilisateurs déjà captifs de son écosystème représentent un levier de distribution qu'OpenAI ne peut pas répliquer. Anthropic, soutenu par des investissements massifs d'Amazon et Google, a quant à lui réussi à imposer Claude comme une référence sérieuse, notamment auprès des professionnels et des développeurs. La prochaine bataille se jouera sur les agents autonomes et l'intégration dans les outils de productivité du quotidien, un terrain où Google et Microsoft partent avec une longueur d'avance structurelle. OpenAI, de son côté, multiplie les annonces produit et tente d'élargir son offre au-delà du chatbot pour rester incontournable dans un marché qu'il a lui-même créé.

UELes entreprises et professionnels européens ayant misé sur un seul fournisseur IA doivent réévaluer leur stratégie d'intégration face à un marché désormais clairement multi-modèles.

BusinessOpinion
1 source
Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité
10The Verge AI 

Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité

Le journaliste d'investigation Ronan Farrow, connu notamment pour avoir révélé l'affaire Harvey Weinstein, a publié dans The New Yorker une enquête fleuve de plus de 17 000 mots sur Sam Altman, PDG d'OpenAI, co-écrite avec Andrew Marantz après dix-huit mois de reporting. Le texte constitue le récit le plus complet à ce jour de l'épisode de novembre 2023, lorsque le conseil d'administration d'OpenAI avait brutalement licencié Altman, officiellement pour manque de franchise, avant de le réintégrer quelques jours plus tard sous la pression des employés et des investisseurs. L'enquête plonge aussi dans la vie personnelle d'Altman, ses investissements, ses démarches pour attirer des capitaux en provenance du Moyen-Orient, et ses propres réflexions sur ses traits de caractère. Une source citée dans l'article résume la chose sans détour : Altman serait "unconstrained by the truth", c'est-à-dire affranchi de toute contrainte vis-à-vis de la vérité. Ce portrait compte parce qu'Altman n'est pas seulement le patron d'une startup : en quelques années, il a transformé un laboratoire de recherche à but non lucratif en une entreprise privée valorisée à près de mille milliards de dollars, faisant de lui le visage le plus visible de l'industrie de l'intelligence artificielle mondiale. La question de sa fiabilité dépasse donc largement le cadre d'une querelle interne. Farrow note que, au fil de ses dix-huit mois de travail, les interlocuteurs sont devenus nettement plus enclins à s'exprimer publiquement et nominalement sur la tendance d'Altman à "étirer la vérité", un signe que le climat autour d'OpenAI a changé, et que les inquiétudes se font de plus en plus entendre, y compris dans des cercles qui se taisaient jusqu'ici. OpenAI a été fondé en 2015 comme organisation à but non lucratif censée développer l'IA de façon sûre et ouverte, avant de pivoter vers un modèle hybride à profit plafonné, puis de lever des milliards auprès de Microsoft et d'autres grands investisseurs. La montée en puissance de ChatGPT depuis fin 2022 a propulsé Altman sur la scène mondiale, lui donnant une influence considérable sur les décideurs politiques, les régulateurs et les marchés financiers. C'est précisément cette centralité qui rend l'enquête de Farrow structurellement importante : quand un seul individu concentre autant de pouvoir sur une technologie aussi pervasive, la question de son rapport à la vérité cesse d'être anecdotique. Farrow lui-même affirme avoir perçu une évolution chez Altman au cours de leurs nombreux entretiens, sans pour autant que cela modifie son analyse de fond sur les dynamiques qui ont conduit à la crise de gouvernance de 2023.

UELa fiabilité de Sam Altman et la gouvernance d'OpenAI influencent directement les discussions réglementaires européennes, notamment la mise en œuvre de l'AI Act et les relations entre décideurs politiques de l'UE et la principale organisation IA mondiale.

BusinessOpinion
1 source
Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire
11The Information AI 

Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire

Google est en négociation avec le Département de la Défense américain pour un accord qui permettrait au Pentagone de déployer les modèles d'intelligence artificielle Gemini dans des environnements classifiés. L'information, révélée par deux personnes ayant une connaissance directe des discussions, indique que les deux parties envisagent un contrat autorisant l'utilisation de l'IA de Google pour l'ensemble des usages légaux au sein des forces armées américaines. Selon l'une de ces sources, Google aurait proposé d'inclure dans le contrat des clauses restrictives visant à empêcher que ses modèles soient utilisés pour de la surveillance de masse intérieure ou pour des systèmes d'armes autonomes, notamment le ciblage, sans supervision humaine "appropriée". Cet accord marquerait un tournant majeur dans la relation entre Google et le secteur militaire. L'entreprise deviendrait un contractant technologique significatif du Pentagone, avec un accès potentiel à des infrastructures classifiées, un niveau d'engagement rarement atteint dans l'industrie tech civile. Pour l'armée américaine, intégrer Gemini dans des environnements sécurisés ouvrirait la voie à des capacités d'analyse, de traitement du renseignement et de prise de décision assistée par IA à une échelle et une vitesse sans précédent. Les garde-fous proposés par Google, bien que symboliquement importants, restent formulés de façon vague, notamment autour de la notion de contrôle humain "approprié", ce qui laisse une marge d'interprétation considérable. Ce rapprochement s'inscrit dans un renversement de position spectaculaire pour Google. En 2018, face à une fronde interne massive de ses employés, l'entreprise avait abandonné le projet Maven, un contrat avec le Pentagone portant sur l'analyse d'images de drones par IA, et s'était engagée à ne pas développer d'IA à usage militaire offensif. Depuis, la concurrence acharnée avec Microsoft, qui fournit déjà des services cloud et d'IA à l'armée via Azure et ses partenariats avec OpenAI, ainsi que la pression des actionnaires ont poussé Google à reconsidérer cette posture. La course aux contrats gouvernementaux dans le domaine de l'IA est désormais un enjeu stratégique majeur pour l'ensemble des grandes entreprises technologiques américaines.

UECe rapprochement militaro-technologique américain pourrait accélérer les débats européens sur la souveraineté technologique et l'encadrement de l'IA dans la défense.

BusinessActu
1 source
L'IA d'entreprise comme couche d'exploitation
12MIT Technology Review 

L'IA d'entreprise comme couche d'exploitation

La vraie ligne de fracture dans l'IA d'entreprise n'est pas celle que l'on suit habituellement dans les médias. Pendant que le débat public se focalise sur les benchmarks des modèles fondateurs, GPT contre Gemini, scores de raisonnement, gains marginaux de performance, l'avantage décisif se joue ailleurs : dans la couche opérationnelle, c'est-à-dire l'ensemble formé par les logiciels de workflow, la capture de données, les boucles de rétroaction et la gouvernance qui s'intercale entre les modèles d'IA et le travail réel. Des acteurs comme OpenAI et Anthropic vendent l'intelligence comme un service : on a un problème, on appelle une API, on obtient une réponse. Cette intelligence est généraliste, largement sans mémoire d'une session à l'autre, et de plus en plus interchangeable. À l'opposé, les organisations établies ont la possibilité de traiter l'IA comme une couche opérationnelle permanente : chaque exception, chaque correction, chaque validation humaine devient un signal d'apprentissage, et l'intelligence s'améliore à mesure que la plateforme absorbe davantage de travail. Ce modèle inverse la relation traditionnelle entre humains et machines. Dans une organisation de services classique, les opérateurs utilisent des logiciels pour effectuer un travail d'expert : la technologie est le médium, le jugement humain est le produit. Une plateforme pensée nativement pour l'IA renverse cette logique : le système ingère un problème, applique la connaissance accumulée du domaine, exécute de manière autonome ce qu'il peut traiter avec une haute confiance, et renvoie vers des experts humains uniquement les sous-tâches qui requièrent un jugement que le système ne maîtrise pas encore. Cette inversion n'est pas qu'un simple redesign d'interface, elle exige une matière première que les startups ne peuvent pas fabriquer rapidement : des données opérationnelles propriétaires, une large base d'experts dont les décisions quotidiennes génèrent des signaux d'entraînement, et une connaissance tacite accumulée sur des années quant à la façon dont le travail complexe se fait réellement. C'est là où réside le véritable enjeu stratégique de la décennie. Le récit dominant affirme que les startups agiles vont surpasser les acteurs établis en construisant des systèmes AI-native from scratch. Si l'IA était avant tout un problème de modèles, cette thèse tiendrait. Mais dans beaucoup de secteurs d'entreprise, c'est un problème de systèmes, intégrations, permissions, évaluation, gestion du changement, où l'avantage revient à ceux qui sont déjà ancrés dans des workflows à fort volume et à forts enjeux. La société Ensemble illustre cette approche avec une stratégie de "distillation de connaissance" : transformer l'expertise tacite et périssable des meilleurs opérateurs en signaux réutilisables, puis réinjecter ces résultats dans les workflows pour que le système continue à progresser. Les ingrédients existent déjà chez les acteurs historiques ; la question est de savoir qui saura les convertir en avantage compétitif durable avant que la fenêtre ne se referme.

BusinessOpinion
1 source
NewBird AI : comment le virage technologique d’Allbirds a fait bondir son action de 600 %
13Le Big Data 

NewBird AI : comment le virage technologique d’Allbirds a fait bondir son action de 600 %

Le 15 avril 2026, Allbirds, fabricant américain de chaussures durables, a annoncé l'abandon total de son activité historique pour se repositionner sous le nom NewBird AI, avec pour nouvelle mission de fournir des infrastructures de calcul dédiées à l'intelligence artificielle. L'annonce a provoqué une envolée boursière spectaculaire : le titre a bondi jusqu'à 876 % en séance avant de clôturer à 16,99 dollars, soit une progression de 582 % en une seule journée depuis les 2,49 dollars du matin. Concrètement, l'entreprise a cédé l'ensemble de ses marques et actifs liés à la chaussure à American Exchange Group pour 39 millions de dollars, et a simultanément sécurisé une facilité de financement convertible de 50 millions de dollars auprès d'un investisseur institutionnel. Ces fonds serviront à acquérir des GPU haute performance et à construire une offre de type GPU-as-a-Service, c'est-à-dire la location de puissance de calcul à des entreprises souhaitant entraîner ou faire tourner des modèles d'IA. Ce pivot illustre de façon saisissante comment la pénurie mondiale de ressources de calcul est devenue un levier de création de valeur capable de transformer instantanément la perception d'une entreprise sur les marchés, même si celle-ci n'avait aucun lien historique avec la technologie. Pour les entreprises confrontées à des délais et des contraintes d'accès aux GPU chez les grands fournisseurs cloud, une offre alternative flexible représente une réponse concrète à un goulot d'étranglement structurel. NewBird AI ne cherche pas à concurrencer AWS, Google Cloud ou Azure frontalement, mais à occuper les interstices du marché : des clients qui ne peuvent pas obtenir de capacités de manière fiable ou rapide auprès des hyperscalers traditionnels. La proposition de valeur repose sur la disponibilité immédiate et des contrats de location à long terme. Allbirds avait été introduite en Bourse en novembre 2021 à 15 dollars l'action, levant près de 348 millions de dollars sur la promesse d'une marque de chaussures éco-responsables. Depuis, la trajectoire avait été régulièrement pénalisée par la baisse des ventes, des pertes croissantes et un recul d'image, ramenant le titre à moins de 3 dollars début 2026. Ce pivot radical s'inscrit dans une tendance plus large où des sociétés cotées en difficulté cherchent à capter l'enthousiasme des investisseurs pour l'IA en procédant à des rebranding agressifs, parfois sans historique technique ni infrastructure préexistante. La capacité de NewBird AI à réellement déployer des actifs GPU compétitifs et à attirer une clientèle stable face à des acteurs déjà établis dans le GPUaaS, comme CoreWeave, reste à démontrer dans les prochains trimestres.

BusinessOpinion
1 source
Allbirds lâche le marché de la basket pour devenir une entreprise IA
14Frandroid 

Allbirds lâche le marché de la basket pour devenir une entreprise IA

Allbirds, la marque américaine de chaussures connue pour ses sneakers en laine mérinos et ses fibres d'eucalyptus, a annoncé un pivot radical vers l'intelligence artificielle, abandonnant ainsi son cœur de métier historique dans la fabrication de chaussures durables. L'annonce a provoqué une hausse spectaculaire du cours de l'action, qui a bondi de près de 600% en réaction à cette réorientation stratégique majeure. Ce virage illustre une tendance de fond : des entreprises en difficulté sur leurs marchés d'origine se repositionnent dans l'IA pour séduire les investisseurs et relancer leur valorisation boursière. Pour Allbirds, qui avait vu son action s'effondrer de plus de 95% depuis son introduction en bourse en 2021, ce changement de cap représente une bouée de sauvetage financière. La réaction des marchés montre à quel point le simple label "IA" suffit aujourd'hui à transformer la perception des investisseurs, indépendamment des fondamentaux opérationnels. Fondée en 2016 sur la promesse d'une mode durable et éthique, Allbirds avait incarné pendant quelques années l'idéal d'une consommation responsable, avant de se heurter à une concurrence accrue et à un contexte économique défavorable pour les marques premium. Ce repositionnement s'inscrit dans un phénomène plus large de "pivot IA" observé dans de nombreux secteurs, où des entreprises en reconversion cherchent à capitaliser sur l'engouement autour de l'intelligence artificielle. La question qui demeure ouverte est celle de la substance réelle de cette transformation et de sa viabilité à long terme.

BusinessOpinion
1 source
Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »
15La Tribune 

Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »

Neil Zeghidour, directeur général de Gradium, a pris la parole lors de la conférence Tech For Future pour exposer la vision de sa société, récemment implantée dans l'écosystème parisien de l'intelligence artificielle. Sa mission : constituer une équipe de recherche d'élite pour développer des modèles vocaux capables de rivaliser avec les grandes plateformes américaines. Pour attirer ces profils rares, il revendique une approche singulière, comparant la gestion de ses chercheurs en IA à celle de footballeurs professionnels, des talents à recruter, fidéliser et placer dans les meilleures conditions pour performer. L'enjeu derrière cette métaphore est concret : le marché des chercheurs spécialisés en IA est d'une compétition féroce, avec une poignée d'experts mondiaux se disputés par des géants comme Google, OpenAI ou Meta, capables d'offrir des compensations considérables. Gradium parie sur la voix comme vecteur de différenciation, un segment en croissance exponentielle porté par les assistants conversationnels, l'accessibilité et les interfaces multimodales. Construire des modèles vocaux performants en Europe représente un défi technique autant qu'économique, mais aussi une opportunité stratégique face à la dépendance actuelle aux infrastructures et modèles américains. La démarche de Gradium s'inscrit dans une dynamique plus large : celle de la souveraineté numérique européenne en matière d'IA. Zeghidour insiste sur la nécessité d'entraîner des modèles localement, sur des données et des infrastructures européennes, pour ne pas rester tributaires des choix des acteurs américains. Dans un contexte où la régulation européenne (AI Act) pousse les entreprises à davantage de transparence et de contrôle, des acteurs comme Gradium tentent de transformer cette contrainte en avantage compétitif.

UEGradium, startup française basée à Paris, développe des modèles vocaux sur infrastructures européennes pour réduire la dépendance aux plateformes américaines, s'appuyant sur l'AI Act comme levier de différenciation compétitive.

BusinessOpinion
1 source
Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA
16Next INpact 

Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

Allbirds, le fabricant californien de chaussures fondé en 2015 et célèbre pour ses baskets Wool Runner en laine mérinos et son image écoresponsable, a annoncé un pivot radical : l'entreprise abandonne la chaussure pour devenir fournisseur d'infrastructures d'intelligence artificielle sous le nom NewBird AI. La société proposera des services de type "GPU-as-a-Service", c'est-à-dire de la location de puissance de calcul à des entreprises ayant besoin de ressources pour entraîner ou déployer des modèles d'IA. Un accord de financement de 50 millions de dollars avec un investisseur institutionnel non divulgué a été signé, avec une finalisation attendue pour le deuxième trimestre 2026. L'annonce a provoqué une explosion boursière de plus de 700 % en une seule séance à Wall Street, propulsant l'action Allbirds dans la catégorie des "memestocks". Ce pivot illustre à la fois le désespoir d'une entreprise en faillite progressive et la fièvre spéculative qui entoure l'IA. Allbirds, qui avait culminé à une capitalisation de 4 milliards de dollars lors de son introduction en Bourse en 2021, n'est plus que l'ombre d'elle-même : ses ventes ont reculé dès 2022, ses magasins ont fermé un à un, et fin février 2026 il ne restait plus que quatre boutiques aux États-Unis et au Royaume-Uni. L'entreprise a finalement cédé l'ensemble de ses actifs de chaussures à American Exchange Group pour 39 millions de dollars, soit une fraction infime de sa valeur passée. La coquille juridique restante a alors cherché une nouvelle raison d'exister. Le changement de cap implique également l'abandon de ses engagements environnementaux : les actionnaires devront voter pour supprimer toute référence à un objectif d'intérêt public en matière de protection de l'environnement, difficilement compatible avec l'exploitation énergivore de centres de données GPU. Le parcours d'Allbirds résume une décennie de promesses et de déconvenues dans la consommation responsable. Après une mutinerie des actionnaires en mai 2023 contre la stratégie de l'entreprise, une plainte finalement rejetée en février 2026, la confiance était brisée. Le pivot vers l'IA suit un schéma déjà vu avec certaines sociétés de minage de bitcoins qui reconvertissent leurs infrastructures pour profiter de la demande explosive en calcul GPU. Mais 50 millions de dollars reste une somme dérisoire dans un secteur où les grands acteurs investissent des dizaines de milliards. La hausse de 700 % du cours de Bourse, déconnectée de tout fondamental, ressemble davantage à un effet d'annonce spéculatif qu'à un vrai projet industriel. Si NewBird AI ne lève pas rapidement des capitaux bien plus importants, ce rebond boursier risque de n'être qu'une parenthèse avant une chute définitive.

BusinessOpinion
1 source
Les bots d'achat IA multiplient remboursements et risques, selon un dirigeant d'Adyen
17The Information AI 

Les bots d'achat IA multiplient remboursements et risques, selon un dirigeant d'Adyen

Les robots d'achat alimentés par l'intelligence artificielle génèrent un taux anormalement élevé de remboursements et de contestations de paiement par carte bancaire. C'est ce qu'indique Carlo Bruno, vice-président produit chez Adyen, l'un des principaux processeurs de paiement au monde. Ce constat met en lumière les risques financiers concrets liés au commerce dit "agentique", où des IA effectuent des achats au nom des consommateurs. Avant que ces agents puissent gérer des transactions en ligne de manière fiable, les entreprises devront trouver des mécanismes pour absorber ce risque accru. La multiplication des litiges pourrait d'ailleurs inciter les processeurs de paiement à envisager des frais plus élevés pour les marchands sur les transactions initiées par des IA, ce qui renchérirait mécaniquement le coût du commerce automatisé pour les vendeurs en ligne. Selon Bruno, le secteur attend un "big bang" qui ne viendra pas : l'adoption de l'IA dans les achats se fera de manière progressive, et non par un basculement soudain où des bots transacteraient massivement pour les consommateurs. Cette prudence reflète un enjeu structurel plus large : les infrastructures de paiement ont été conçues pour des humains, et leur adaptation à des agents autonomes soulève des questions de responsabilité, de fraude et de consentement que ni les plateformes ni les régulateurs n'ont encore pleinement résolues.

UEAdyen étant un acteur néerlandais central dans les paiements européens, les risques de remboursements et surcoûts liés aux agents IA concernent directement les marchands e-commerce français et européens.

BusinessOpinion
1 source
L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups
18The Information AI 

L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups

Le gouvernement chinois a ouvert une enquête sur la vente de la startup d'agents IA Manus à Meta Platforms, provoquant une onde de choc dans l'écosystème des startups d'intelligence artificielle en Chine. Cette investigation, dont les détails précis restent flous, cible une transaction qui représentait pour de nombreux fondateurs un débouché naturel : être rachetés par un géant technologique américain. Hank Yuan, co-fondateur d'une nouvelle startup basée à Shenzhen qui développe un agent IA pour le marché mondial, résume le sentiment général : « Tous les fondateurs de startups IA que je connais suivent l'affaire Manus de très près. » L'impact est immédiat et concret. Plusieurs startups envisagent désormais de déplacer tout ou partie de leurs opérations vers Singapour, ou de quitter la Chine entièrement. Le choix du financement devient aussi une question stratégique brûlante : lever des fonds en yuan chinois ou en dollars américains implique désormais des conséquences géopolitiques directes sur la capacité à vendre à l'international ou à attirer des investisseurs américains. Comme le formule Yuan, les fondateurs doivent « réfléchir encore plus soigneusement aux marchés visés, à la structure juridique de leur entreprise et à la devise dans laquelle lever des fonds ». Les startups dont l'ambition se limite au marché chinois, financées par du capital-risque local ou asiatique, sont moins exposées à ces tensions. Cette affaire s'inscrit dans une rivalité technologique sino-américaine de plus en plus intense, où les acquisitions transfrontalières d'entreprises IA deviennent des enjeux de souveraineté nationale. Pékin surveille de près les transferts de technologie vers des entreprises américaines, notamment dans le domaine de l'IA agentique, considéré comme stratégique. Pour les fondateurs chinois qui cherchent une sortie vers les grands groupes de la Silicon Valley, la fenêtre se resserre. Singapour, hub neutre entre les deux blocs, s'impose comme la destination de repli privilégiée pour ceux qui veulent préserver à la fois un accès aux marchés occidentaux et une base opérationnelle en Asie.

UELes tensions géopolitiques sino-américaines autour des acquisitions d'IA pourraient inciter l'UE à renforcer sa propre surveillance des transferts technologiques transfrontaliers impliquant des startups chinoises.

BusinessOpinion
1 source
OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires
19The Information AI 

OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires

OpenAI prépare une évolution significative de son modèle publicitaire pour ChatGPT. Selon un dirigeant d'agence ayant échangé directement avec des employés d'OpenAI, la société envisage d'adopter une tarification au clic (CPC) pour certaines publicités, plutôt que de facturer uniquement à l'affichage. En parallèle, OpenAI travaillerait sur des formats dits "à la performance", conçus pour inciter les utilisateurs à réaliser une action précise : effectuer un achat, télécharger une application ou s'inscrire à un service. Aucun calendrier précis n'a encore été communiqué pour ces nouveaux formats. Ces changements représentent un signal fort pour l'industrie publicitaire. Passer du modèle CPM (coût pour mille impressions) au CPC, c'est adopter le standard qui a fait la puissance de Google et Meta : on ne paie que pour les résultats mesurables. Pour les annonceurs, cela réduit le risque financier et facilite la justification des budgets. Pour OpenAI, c'est un moyen d'attirer des marques habituées aux campagnes à la performance sur des plateformes comme Google Ads ou Meta Ads, en leur offrant un environnement familier. OpenAI cherche ainsi à transformer ChatGPT en surface publicitaire crédible face aux géants du secteur, dans un contexte où la société doit financer des coûts d'infrastructure colossaux et afficher une trajectoire de revenus convaincante pour ses investisseurs. Google et Meta dominent ensemble plus de 50 % du marché mondial de la publicité digitale. OpenAI, fort de ses centaines de millions d'utilisateurs actifs, mise sur l'intention forte exprimée dans les requêtes conversationnelles pour séduire les annonceurs avec une audience qualifiée et engagée.

UELes agences et annonceurs européens pourraient bientôt intégrer ChatGPT dans leurs plans media avec des formats CPC familiers, redistribuant une part des budgets actuellement alloués à Google et Meta.

BusinessActu
1 source
Traza lève 2,1 millions de dollars auprès de Base10 pour automatiser les processus d'approvisionnement par IA
20VentureBeat AI 

Traza lève 2,1 millions de dollars auprès de Base10 pour automatiser les processus d'approvisionnement par IA

Traza, une startup new-yorkaise fondée récemment, a annoncé la clôture d'un tour de table pré-seed de 2,1 millions de dollars mené par Base10 Partners, avec la participation de Kfund, des scouts d'a16z, Clara Ventures, Masia Ventures, et plusieurs business angels dont Pepe Agell, l'homme qui avait porté Chartboost à 700 millions d'utilisateurs mensuels avant sa rachat par Zynga. L'entreprise développe des agents IA capables d'automatiser entièrement les processus d'approvisionnement en entreprise : envoi de demandes de devis, suivi des commandes, communications fournisseurs, traitement des factures, le tout sans supervision humaine continue. Selon ses premières données de déploiement, Traza revendique une réduction de 70 % du temps humain consacré aux tâches d'achat, et des cycles d'approvisionnement trois fois plus rapides que les processus manuels. L'enjeu est considérable. Le marché des logiciels de procurement dépasse déjà 8 milliards de dollars et croît d'environ 10 % par an, mais le vrai gisement de valeur se trouve ailleurs : dans les pertes silencieuses qui surviennent après la signature des contrats. Une étude de World Commerce & Contracting et Ironclad estime que les entreprises perdent en moyenne 11 % de la valeur totale de leurs contrats une fois ceux-ci signés, un phénomène baptisé "value leakage post-signature". Pour une grande entreprise avec 500 millions de dollars de dépenses contractualisées annuelles, cela représente 55 millions qui s'évaporent chaque année, non pas à cause de mauvaises négociations, mais faute de suivi opérationnel. La majorité des entreprises ne gèrent activement que leurs 20 % de fournisseurs principaux ; les 80 % restants sont largement laissés à l'abandon. Le secteur du procurement n'a pas manqué de solutions logicielles ces dernières années, SAP Ariba, Coupa, Zip, Fairmarkit ou encore Tonkean ont tous intégré des couches d'IA à leurs plateformes. Mais ces outils sont restés des copilotes : ils analysent, suggèrent, alertent, sans jamais agir. Traza représente un changement de posture, passant du conseil à l'exécution autonome. Le PDG et cofondateur Silvestre Jara Montes positionne explicitement sa startup dans la "couche opérationnelle" du contrat, là où la valeur se perd le plus concrètement. Avec un financement modeste mais des investisseurs emblématiques de l'écosystème IA, Traza entre sur un marché où les grands éditeurs ERP ont historiquement tardé à innover, et où la promesse des agents autonomes pourrait trouver son premier cas d'usage industriel à grande échelle.

BusinessOpinion
1 source
OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?
21Le Big Data 

OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?

OpenAI a annoncé le 13 avril 2026 l'acquisition de Hiro Finance, une startup spécialisée dans la gestion financière personnalisée par intelligence artificielle. Fondée il y a seulement cinq mois par Ethan Bloch, Hiro avait développé une application capable de gérer plus d'un milliard de dollars d'actifs pour ses utilisateurs, en se positionnant comme un "CFO personnel" alimenté par l'IA. Le calendrier de fermeture est serré : l'application cesse d'accepter de nouveaux inscrits immédiatement, s'arrête définitivement le 20 avril, et les données utilisateurs seront supprimées le 13 mai 2026. Le fondateur, Ethan Bloch, n'est pas un inconnu du secteur : il avait déjà cédé Digit, une application d'épargne automatisée, pour environ 230 millions de dollars. OpenAI a confirmé que l'équipe de Hiro rejoindra ses rangs pour poursuivre sa vision à plus grande échelle, en s'appuyant sur l'infrastructure et la distribution de ChatGPT. Cette acquisition signale une offensive sérieuse d'OpenAI sur le marché de la finance personnelle, un secteur à haute valeur et haute sensibilité. En intégrant l'expertise de Hiro, notamment sa technologie de vérification mathématique des recommandations financières, OpenAI s'attaque directement à l'un des talons d'Achille des modèles génératifs : leur tendance aux erreurs chiffrées. Pour des millions d'utilisateurs de ChatGPT, cela pourrait se traduire concrètement par des fonctionnalités d'analyse de dépenses, d'optimisation d'épargne ou de conseil en investissement directement intégrées à l'interface. Pour les entreprises, les perspectives incluent des outils d'aide à la décision financière automatisés et personnalisés. C'est un mouvement qui menace directement les fintechs établies, les robo-advisors et même certaines banques traditionnelles qui investissent massivement dans leurs propres assistants IA. Cette opération s'inscrit dans une stratégie d'acquisitions ciblées qu'OpenAI déploie depuis plusieurs mois, préférant absorber des équipes expertes plutôt que de développer des compétences sensibles en interne. Le rachat récent de Promptfoo, outil open source utilisé par plus de 125 000 développeurs pour tester des agents IA, illustre la même logique : renforcer la fiabilité sur des cas d'usage critiques. La finance coche toutes ces cases. En Europe cependant, la trajectoire pourrait être plus complexe : depuis février 2025, l'AI Act classe les systèmes d'IA utilisés pour évaluer la solvabilité ou orienter des décisions financières comme "à haut risque", imposant audits de conformité, transparence algorithmique et supervision humaine obligatoire. ChatGPT Health reste toujours indisponible en France ; un "ChatGPT Finance" pourrait connaître le même sort. Pour les fintechs européennes, la question n'est plus de savoir si OpenAI entrera sur leur marché, mais à quelle vitesse et avec quelles contraintes réglementaires.

UEL'AI Act classe les systèmes d'IA d'évaluation financière comme 'à haut risque', ce qui pourrait bloquer un éventuel ChatGPT Finance en Europe, comme cela a été le cas pour ChatGPT Health en France.

BusinessOpinion
1 source
Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA
22The Information AI 

Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA

Anthropic a discrètement modifié son modèle de facturation pour les entreprises clientes de Claude, abandonnant une tarification forfaitaire au profit d'un système basé sur le volume réel d'utilisation de l'IA. Ce changement, qui n'avait pas été annoncé publiquement, signifie concrètement que les organisations dont les salariés sont des utilisateurs intensifs des outils Claude paieront désormais significativement plus cher. La décision a été mise en place au cours des dernières semaines et vise directement les clients enterprise. Cette révision tarifaire reflète la pression croissante que fait peser la popularité explosive des produits de codage assisté et d'agents IA d'Anthropic sur ses infrastructures de calcul. Plus les utilisateurs adoptent ces fonctionnalités avancées, plus le coût de traitement augmente côté serveur. En répercutant ces coûts sur les clients en fonction de leur consommation réelle, Anthropic cherche à préserver ses marges dans un contexte où la demande dépasse les prévisions initiales et où les ressources GPU restent rares et coûteuses. Ce virage intervient dans un secteur confronté à ce que les professionnels appellent un "compute crunch", une tension généralisée sur les capacités de calcul disponibles pour faire tourner des modèles d'IA de grande taille. OpenAI, Google et d'autres acteurs font face aux mêmes contraintes. La décision d'Anthropic pourrait inaugurer une tendance plus large : la fin des abonnements IA à prix fixe pour les entreprises, remplacés par des modèles à la consommation calqués sur ceux du cloud computing traditionnel.

UELes entreprises françaises et européennes abonnées à Claude Enterprise devront réévaluer leur budget IA, leurs coûts pouvant augmenter significativement selon l'intensité d'utilisation de leurs salariés.

BusinessActu
1 source
Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne
23VentureBeat AI 

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne

Un post publié le 13 avril sur X par Steve Yegge, ancien ingénieur Google reconverti en directeur de l'ingénierie chez Sourcegraph, a déclenché une vive polémique dans la Silicon Valley. Yegge y relayait les propos d'un ami, ingénieur actuel chez Google, selon lesquels l'adoption interne de l'IA chez Google serait bien plus banale que ce que l'entreprise laisse entendre. Selon cette source anonyme, les équipes de Google suivraient une distribution classique : 20 % de refractaires à l'IA, 60 % d'utilisateurs intermédiaires cantonnés aux assistants de code basiques, et seulement 20 % d'ingénieurs véritablement engagés dans des workflows agentiques avancés. Le post a rapidement enflammé les réseaux, atteignant 4 500 likes, 458 commentaires et 1,9 million de vues en moins de 24 heures. L'ami en question aurait également affirmé que certains Googlers ne pouvaient pas utiliser Claude Code d'Anthropic, perçu en interne comme "l'ennemi", et que Gemini n'était pas encore à la hauteur pour les cas d'usage les plus avancés. La réaction du côté de Google a été immédiate et tranchante. Demis Hassabis, cofondateur et PDG de Google DeepMind, a répondu directement à Yegge : "Dis à ton ami de faire un vrai travail plutôt que de propager des absurdités. Ce post est complètement faux, du pur clickbait." Addy Osmani, directeur chez Google Cloud AI, a livré une réfutation plus détaillée, affirmant que "plus de 40 000 ingénieurs utilisent des outils de codage agentiques chaque semaine" et que les équipes ont accès à des modèles personnalisés, des CLIs et des MCPs maison. Il a précisé que les Googlers peuvent même utiliser les modèles d'Anthropic via Vertex AI, concluant que "Google est tout sauf dans la moyenne." L'ingénieure Jaana Dogan a abondé dans ce sens, décrivant un usage quasi continu des outils IA dans son environnement quotidien. L'écho considérable de ce débat s'explique en grande partie par le profil de Yegge : avec treize ans chez Google, des passages chez Amazon et Grab, il s'est construit au fil des années une réputation d'insider-outsider au franc-parler, dont les analyses circulent largement dans les milieux tech. Un mémo interne qu'il avait rédigé chez Google en 2011 avait fuité et fait le tour des médias spécialisés, lui conférant un statut particulier. La polémique s'inscrit dans un contexte plus large : alors que les grandes entreprises tech rivalisent de communication autour de leur adoption de l'IA, la question de ce qui se passe réellement derrière les portes devient un enjeu de crédibilité. Pour Google, dont Gemini est à la fois un produit stratégique et un outil interne, toute suggestion d'un usage tiède en interne touche directement à la cohérence de son discours public.

BusinessOpinion
1 source
L'énigme de l'explosion des startups d'annotation de données
24The Information AI 

L'énigme de l'explosion des startups d'annotation de données

Le secteur des startups spécialisées dans l'annotation de données et les environnements d'apprentissage par renforcement connaît une croissance spectaculaire, tant en chiffre d'affaires qu'en valorisation. Ces entreprises recrutent des experts en médecine, droit et ingénierie logicielle pour produire des données d'entraînement destinées aux grands modèles d'IA, allant jusqu'à recréer des copies fictives d'applications comme Salesforce ou Excel. Leurs contrats avec les grands laboratoires d'IA varient considérablement : des équipes individuelles ou des chercheurs négocient directement leurs propres accords, avec des montants allant de quelques centaines de milliers à plusieurs millions de dollars. Ce modèle permet à ces startups d'atteindre rapidement 10 millions de dollars de revenus annualisés en partant de zéro. Cette dynamique illustre à quel point les grands labs d'IA dépendent encore massivement de données humaines de haute qualité pour entraîner leurs modèles, malgré les promesses d'automatisation. Des acteurs comme Anthropic ont multiplié les partenariats avec différentes startups, tandis qu'OpenAI a opté pour une approche centralisée avec une équipe dédiée gérant les relations fournisseurs. Pour les professionnels recrutés, médecins ou juristes, ces missions représentent une source de revenus complémentaires significative, tandis que les startups bénéficient d'une croissance rapide sans avoir besoin de lourds investissements technologiques initiaux. Pourtant, le secteur présente une fragilité structurelle majeure : ces entreprises ne disposent d'aucun avantage concurrentiel durable. Leur modèle repose sur des contrats courts et fragmentés, sans fidélisation forte côté clients. La fragmentation même du marché, où chaque chercheur peut choisir son fournisseur, expose ces startups à une concurrence féroce et à une instabilité contractuelle chronique. À mesure que les techniques d'entraînement synthétique et d'auto-amélioration des modèles progressent, la fenêtre d'opportunité pour ces acteurs pourrait se refermer aussi rapidement qu'elle s'est ouverte, soulevant des questions sur leur capacité à pivoter ou à consolider leurs positions avant que la demande ne s'érode.

UELes professionnels européens qualifiés (médecins, juristes, ingénieurs) pourraient accéder à ces contrats d'annotation comme source de revenus complémentaires, mais le marché est structuré autour de laboratoires américains sans ancrage réglementaire ou économique particulier en France ou en UE.

BusinessOpinion
1 source
OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
25Le Big Data 

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ». Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco. La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

UELes entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

BusinessOpinion
1 source
Scotiabank se prépare à son avenir avec l'IA
26AI News 

Scotiabank se prépare à son avenir avec l'IA

La banque canadienne Scotiabank a lancé Scotia Intelligence, un cadre unifié pour ses opérations de données et d'intelligence artificielle. Ce dispositif regroupe en une seule plateforme les environnements de calcul, les outils de gouvernance et les mécanismes de sécurité déjà en place au sein de l'établissement. Son volet opérationnel, Scotia Navigator, permet aux équipes internes, notamment celles en contact avec les clients, de construire et déployer leurs propres assistants IA dans le respect des règles de conformité de la banque. Les résultats annoncés sont concrets : les centres d'appels traitent désormais plus de 40 % des requêtes clients via l'IA, environ 90 % des courriels commerciaux entrants sont automatiquement redirigés, réduisant la charge manuelle de 70 %. Dans l'application mobile, des suggestions de paiement prédictives aident les clients à gérer leurs factures récurrentes et leurs virements. La banque a également publié un document sur l'éthique des données, qu'elle présente comme unique au Canada. L'enjeu dépasse la simple modernisation informatique : il s'agit de déployer l'IA à l'échelle d'un grand groupe financier sans créer de risques opérationnels ou réglementaires supplémentaires. Pour les équipes techniques, l'automatisation de la génération de code s'accompagne de contrôles de sécurité et d'auditabilité imposés par l'environnement réglementaire bancaire. Pour les employés, chaque usage de l'IA est soumis à une revue interne fondée sur des critères d'équité, de transparence et de responsabilité avant tout déploiement. Une formation obligatoire et des attestations annuelles complètent le dispositif. Tim Clark, directeur des systèmes d'information du groupe, souligne que l'objectif est de permettre aux collaborateurs d'utiliser la technologie avec confiance, tandis que Phil Thomas, directeur de la stratégie, y voit un levier pour recentrer les équipes sur des tâches à plus forte valeur ajoutée. Scotiabank s'inscrit dans une tendance lourde du secteur financier mondial, où les grandes banques cherchent à industrialiser l'IA tout en répondant aux exigences croissantes des régulateurs. La particularité de l'approche canadienne réside dans la formalisation publique de la gouvernance, une posture que peu d'établissements ont adoptée avant d'y être contraints. La banque reconnaît elle-même que l'architecture précise, les coûts, la stratégie de modèles et les benchmarks externes n'ont pas été divulgués, ce qui rend le retour sur investissement global difficile à évaluer. Scotiabank envisage néanmoins d'étendre le dispositif à des agents autonomes pour la recherche et l'analyse, avec des capacités décrites comme "plus autonomes, contextuelles et orientées vers l'action". Si les gains actuels se confirment, la banque devrait accélérer ce déploiement dans l'ensemble de ses métiers.

BusinessOpinion
1 source
Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?
27Le Big Data 

Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?

Anthropic a franchi le seuil des 30 milliards de dollars de revenus annualisés en avril 2026, dépassant ainsi OpenAI qui affiche environ 24 à 25 milliards selon les dernières estimations. Cette progression fulgurante repose en grande partie sur Claude Code, l'outil d'agent de codage développé par la startup, qui lui a permis de capter près d'un tiers des clients entreprise américains en mars 2026. En seulement quelques mois, Anthropic est passé de 9 milliards de dollars de revenus annualisés fin 2025 à plus de 30 milliards, soit une croissance de plus de 230 % en moins d'un an. Les deux entreprises, dont les revenus combinés dépassent désormais 50 milliards de dollars annualisés, préparent toutes deux une entrée en bourse prévue pour le second semestre 2026, ce qui en fait les deux IPO technologiques les plus attendues du moment. Ce duel redessine les priorités de tout le secteur. La clé de la croissance d'Anthropic réside dans sa concentration sur les usages professionnels, qui génèrent une consommation de tokens bien plus élevée que les applications grand public. Un nombre restreint d'entreprises clientes peut ainsi produire davantage de revenus qu'une large base d'utilisateurs occasionnels. OpenAI, longtemps porté par le succès massif de ChatGPT, ajuste désormais sa stratégie en réponse : l'entreprise met l'accent sur Codex et ses outils orientés développeurs, cherchant à maximiser la valeur générée par utilisateur plutôt que le volume d'adoption. Pour les investisseurs, cela signifie que la rentabilité par usage prime désormais sur la popularité brute, un changement de paradigme qui redéfinit les critères de valorisation dans l'ensemble de l'industrie. La rivalité entre les deux acteurs dépasse cependant le seul terrain commercial. Selon des analyses relayées par le Wall Street Journal, OpenAI aurait alerté ses propres investisseurs sur la dynamique concurrentielle d'Anthropic, signe d'une tension croissante entre les deux laboratoires. Cette guerre d'influence a déjà eu des répercussions sur les marchés : la montée en puissance d'Anthropic aurait contribué à une chute de près de 1 000 milliards de dollars de valorisation dans certains segments logiciels en février 2026. Les comparaisons financières directes restent toutefois complexes, des investisseurs comme ceux de Khosla Ventures soulignant que les méthodes comptables des deux entreprises divergent, notamment sur le traitement des commissions versées aux fournisseurs cloud. Alors que les deux IPO approchent, les capitaux disponibles risquent de se concentrer sur ces deux pôles dominants, laissant moins d'espace pour le reste de l'écosystème IA.

UELes deux IPO prévues au second semestre 2026 risquent de concentrer les capitaux disponibles autour d'Anthropic et OpenAI, réduisant les opportunités de financement pour les startups IA européennes.

💬 C'est Claude Code qui a renversé la table, pas une nouvelle version de modèle ou un lancement en fanfare. Des clients enterprise qui font tourner des agents toute la journée génèrent des revenus qu'une base de millions d'abonnés à 20 euros ne peut pas suivre, et ça, OpenAI l'a compris trop tard. Pour les startups IA en Europe, deux IPOs à 50 milliards cumulés vont concentrer les capitaux comme on n'a pas vu depuis longtemps.

BusinessOpinion
1 source
Un dirigeant d'OpenAI dans une note interne : le marché est plus compétitif que jamais
28The Verge AI 

Un dirigeant d'OpenAI dans une note interne : le marché est plus compétitif que jamais

Denise Dresser, directrice des revenus d'OpenAI, a envoyé dimanche un mémo interne de quatre pages aux employés de l'entreprise. Le document, consulté par The Verge, détaille la direction stratégique de la société et insiste sur deux priorités : fidéliser les utilisateurs existants et accélérer le développement de l'activité auprès des clients entreprise. Dresser a récemment repris une grande partie des responsabilités de l'ancien directeur des opérations Brad Lightcap, qui se réoriente vers un nouveau poste centré sur des projets spéciaux. Son constat est sans détour : "Le marché est aussi compétitif que je ne l'ai jamais vu." Le mémo revient à plusieurs reprises sur la nécessité de construire un "fossé" autour des produits d'OpenAI, c'est-à-dire des raisons suffisamment fortes pour qu'utilisateurs et entreprises ne migrent pas vers un concurrent. C'est précisément le talon d'Achille du secteur : les modèles d'IA se valent souvent d'une semaine à l'autre selon les benchmarks, et le coût de changement reste quasi nul pour la plupart des utilisateurs. La rétention devient donc un enjeu stratégique aussi important que l'acquisition. Ce signal interne reflète une tension croissante chez OpenAI, qui doit défendre sa position de leader face à une concurrence qui s'est radicalement accélérée ces derniers mois. Google, Anthropic, Meta et des acteurs comme DeepSeek ou Mistral réduisent l'écart technique, tandis que Microsoft, principal partenaire et investisseur d'OpenAI, diversifie ses propres intégrations IA. Le tournant vers l'entreprise, segment plus stable et moins volatil que le grand public, traduit une maturité commerciale mais aussi une forme de pression sur la croissance organique de ChatGPT.

UEMistral est explicitement cité comme concurrent réduisant l'écart technique avec OpenAI, ce qui confirme la montée en puissance des acteurs européens dans la compétition mondiale des modèles IA.

BusinessOpinion
1 source
Reinforcement Learning Gym" valorisée à 750 millions de dollars, portée par la demande en données d'entraînement
29The Information AI 

Reinforcement Learning Gym" valorisée à 750 millions de dollars, portée par la demande en données d'entraînement

Fleet, une startup américaine spécialisée dans la création d'environnements d'entraînement pour l'intelligence artificielle, est en négociation pour lever au moins 50 millions de dollars à une valorisation d'environ 750 millions de dollars. Fondée il y a deux ans, l'entreprise développe et vend des "gymnases d'apprentissage par renforcement", des répliques fonctionnelles d'applications populaires comme Salesforce ou Excel, conçues pour apprendre aux modèles d'IA à utiliser ces outils. Bain Capital Ventures est en discussion pour mener ce tour de table, avec la participation des investisseurs existants Sequoia Capital, Menlo Ventures et SV Angel. Cette levée de fonds illustre une croissance financière spectaculaire : Fleet est passée d'un million de dollars de revenus annualisés fin 2025 à plus de 60 millions de dollars ces dernières semaines, soit une multiplication par soixante en quelques mois. La valorisation elle-même a bondi de plus de sept fois par rapport à son tour d'amorçage, qui était inférieur à 100 millions de dollars. Ce momentum reflète l'appétit croissant des grands laboratoires d'IA pour des données d'entraînement de qualité, en particulier celles qui permettent d'enseigner aux modèles comment interagir avec des logiciels du monde réel. L'essor de Fleet s'inscrit dans une tendance de fond : à mesure que les données textuelles classiques s'épuisent, les développeurs d'IA cherchent de nouvelles façons d'entraîner leurs modèles, notamment via des environnements simulés où les agents apprennent par essais et erreurs. Reproduire des interfaces logicielles complexes représente un défi technique et juridique considérable, mais aussi une opportunité commerciale majeure pour ceux qui y parviennent. Avec le soutien de fonds aussi influents que Sequoia et Bain Capital Ventures, Fleet se positionne comme un acteur clé de cette infrastructure invisible qui alimente la prochaine génération de modèles capables d'agir, et pas seulement de répondre.

BusinessActu
1 source
Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle
30AI News 

Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle

La majorité des entreprises déploient aujourd'hui l'intelligence artificielle de manière progressive et encadrée, loin des systèmes autonomes qui font régulièrement la une. Selon une étude de McKinsey & Company, la plupart des organisations utilisent désormais l'IA dans au moins un domaine de leur activité, mais rares sont celles qui l'ont déployée à l'échelle de l'ensemble de l'entreprise. Un exemple concret illustre cette tendance : S&P Global Market Intelligence a intégré des outils d'IA dans sa plateforme Capital IQ Pro, utilisée par des analystes financiers pour examiner des dépôts réglementaires, des transcriptions d'appels de résultats et des données de marché. Le système permet d'interroger de vastes ensembles de données via une interface conversationnelle, mais les résultats restent systématiquement ancrés dans des sources financières vérifiées, avec la possibilité de remonter aux documents d'origine pour limiter les erreurs. Ce choix d'une IA d'assistance plutôt qu'autonome n'est pas anodin dans des secteurs où une erreur peut entraîner des pertes financières importantes ou engager des responsabilités légales. En finance, les outils comme Capital IQ Pro sont conçus pour éclairer le jugement des analystes, pas pour le remplacer. La décision finale reste humaine. McKinsey souligne par ailleurs un écart croissant entre le déploiement de l'IA et la génération de valeur mesurable : de nombreuses organisations peinent à traduire leurs investissements en résultats concrets. Ce fossé pousse les directions à exiger des systèmes capables d'expliquer leurs sorties, de citer leurs sources et d'opérer dans des périmètres définis, trois conditions essentielles pour établir la confiance dans des environnements réglementés. Derrière cette prudence se dessine un enjeu de gouvernance qui mobilise de plus en plus d'acteurs. S&P Global Market Intelligence note que les organisations bâtissent activement des cadres pour gérer les risques liés à l'IA, notamment la qualité des données et les biais des modèles. Les systèmes agents, capables de planifier et d'agir sans intervention humaine directe, suscitent un intérêt grandissant, mais la majorité des entreprises en est encore aux premières étapes d'expérimentation. Les progrès continus sur les grands modèles de langage laissent entrevoir des usages plus autonomes à terme, en analyse financière, support client ou gestion de chaîne logistique. Ces questions seront au coeur de l'AI & Big Data Expo North America 2026, qui se tiendra les 18 et 19 mai prochains, avec S&P Global Market Intelligence parmi les sponsors, et des sessions dédiées à la gouvernance de l'IA et à son usage dans les industries régulées.

UELes entreprises européennes opérant dans des secteurs réglementés (finance, santé) sont directement concernées par les cadres de gouvernance IA décrits, notamment dans le contexte de la mise en conformité avec l'AI Act.

BusinessOpinion
1 source
Comment un programmeur autodidacte est devenu le père de Claude Code
31The Information AI 

Comment un programmeur autodidacte est devenu le père de Claude Code

Boris Cherny, le directeur de Claude Code chez Anthropic, a failli quitter définitivement l'entreprise l'été dernier. À la place, il a contribué à faire de l'agent de programmation l'un des produits les plus populaires du moment, capable de rivaliser directement avec OpenAI. Les chiffres parlent d'eux-mêmes : les revenus annualisés de Claude Code sont passés de 1 milliard de dollars en décembre 2024 à 2,5 milliards en février 2025, avant d'accélérer encore ces dernières semaines, propulsant Anthropic à 30 milliards de dollars de revenus annualisés au total. Cette trajectoire valide le retour de Cherny chez Anthropic après un bref passage l'été dernier chez Cursor, une startup spécialisée dans les outils de programmation. Son départ avait alors été perçu comme un coup dur pour Anthropic et un avantage potentiel pour ce concurrent plus modeste. Mais depuis son retour, Claude Code a profondément bousculé une industrie technologique déjà sous l'emprise de l'IA : le produit a accéléré l'essor des agents IA autonomes, contribué à une chute des valeurs boursières des éditeurs de logiciels traditionnels, et redéfini le quotidien des ingénieurs logiciels, dont le rôle évolue à mesure que ces outils prennent en charge une part croissante du travail de développement. Boris Cherny est un cas atypique dans cet écosystème dominé par les diplômés des grandes universités : programmeur autodidacte, il s'est imposé comme l'architecte d'un produit qui redessine les contours du développement logiciel. La course aux agents de code oppose désormais frontalement Anthropic et OpenAI, dans un marché où la capacité à attirer et retenir les talents clés se révèle aussi déterminante que la puissance des modèles eux-mêmes. L'épisode Cursor illustre bien les tensions qui traversent ce secteur, où les débauchages et les retours en grâce peuvent peser des milliards de dollars de valorisation.

BusinessOpinion
1 source
Peur et dégoût chez OpenAI
32The Verge AI 

Peur et dégoût chez OpenAI

Le New Yorker a publié cette semaine un long portrait de Sam Altman, PDG d'OpenAI, revenant sur son parcours tumultueux à la tête de l'entreprise la plus influente dans le domaine de l'intelligence artificielle. Le texte rappelle l'épisode le plus marquant de cette saga : en novembre 2023, Altman avait été brusquement licencié par le conseil d'administration d'OpenAI, avant d'être réintégré quelques jours seulement après sous la pression des employés et des investisseurs. Depuis, il a profondément reconfiguré la gouvernance de l'organisation à son avantage. L'enquête soulève une question centrale : Sam Altman est-il la bonne personne pour piloter une technologie aussi puissante et structurante que l'IA générative ? Le profil dressé par le New Yorker interroge la capacité d'un dirigeant au style controversé à assumer la responsabilité d'outils qui transforment en profondeur l'économie, le travail et la société. Pour des millions d'utilisateurs et des milliers d'entreprises qui dépendent de ChatGPT et des API d'OpenAI, la question du leadership n'est pas anodine. OpenAI a connu depuis sa fondation des tensions internes récurrentes entre sa mission originelle à but non lucratif et ses ambitions commerciales croissantes, alimentées par des milliards de dollars d'investissement de Microsoft notamment. La crise de gouvernance de 2023 a mis en lumière ces contradictions structurelles, sans les résoudre. Le débat sur l'identité et les valeurs d'OpenAI reste ouvert, d'autant qu'Altman pousse désormais l'entreprise vers une transformation en société à but lucratif à part entière.

UELa transformation d'OpenAI en société à but lucratif pourrait modifier les conditions d'accès et la tarification de ses API pour les milliers d'entreprises européennes qui en dépendent.

💬 Le vrai sujet du New Yorker, c'est pas Altman, c'est la question qu'on esquive tous depuis 2023 : est-ce qu'on a vraiment envie que l'IA générative soit pilotée par quelqu'un qui a retourné son propre conseil d'administration en 5 jours ? La transition vers le tout-lucratif, je l'attendais, elle était écrite dès les premiers milliards de Microsoft. Mais là, pour les boîtes européennes qui ont tout misé sur les API OpenAI, ça va se traduire en dollars, bientôt.

BusinessOpinion
1 source
Canva multiplie les rachats pour devenir une plateforme créative dopée à l’IA
33Siècle Digital 

Canva multiplie les rachats pour devenir une plateforme créative dopée à l’IA

Canva, la plateforme australienne de design en ligne, vient d'annoncer deux nouvelles acquisitions qui illustrent sa transformation en plateforme créative à grande échelle dopée à l'intelligence artificielle. Parmi les sociétés rachetées figure Simtheory, dont les technologies viennent renforcer l'arsenal IA de la plateforme. Ces mouvements s'inscrivent dans une dynamique d'expansion agressive portée par des chiffres vertigineux : 4 milliards de dollars de revenus annuels et plus de 265 millions d'utilisateurs dans le monde. L'enjeu dépasse largement la création de visuels. Canva signale clairement qu'elle vise un positionnement beaucoup plus large dans la chaîne de production créative des entreprises, en intégrant des capacités d'IA générative directement dans ses outils. Pour les équipes marketing, communication et design des organisations, cela pourrait signifier un guichet unique capable de couvrir l'ensemble du workflow créatif, de la génération d'idées jusqu'à la publication, sans dépendre de suites logicielles tierces comme Adobe. Fondée en 2013 à Perth par Melanie Perkins, Canva a longtemps été perçue comme un outil grand public pour non-designers. Sa montée en puissance auprès des professionnels et des entreprises a changé la donne, et la guerre pour capter les budgets créatifs des organisations est désormais ouverte. Face à Adobe, qui accélère lui aussi sur l'IA avec Firefly, et à de nouveaux entrants comme Figma ou Midjourney, Canva mise sur l'intégration verticale par acquisition pour construire un écosystème difficile à quitter. --- Note : l'article source fourni est tronqué, si des détails manquent (nom de la seconde acquisition, montants, fonctionnalités précises de Simtheory), partage le texte complet pour un résumé plus précis.

UELes équipes marketing et design des entreprises françaises et européennes pourraient trouver dans Canva un guichet unique pour leur workflow créatif, réduisant leur dépendance aux suites Adobe et outils tiers.

BusinessOpinion
1 source
LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone
34Numerama 

LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone

LM Studio, logiciel américain spécialisé dans l'exécution de modèles de langage en local sur Mac, a annoncé l'acquisition de Locally AI, une application française dédiée à l'iPhone. Locally AI permettait aux utilisateurs d'installer et de faire tourner directement sur leur appareil des modèles open source tels que Qwen d'Alibaba ou Gemma de Google, sans passer par le cloud. L'application se distinguait également par l'un des rares accès publics au modèle Apple Foundation, que la firme de Cupertino réserve normalement en exclusivité à ses propres fonctions Apple Intelligence. Cette acquisition marque une étape importante dans la démocratisation de l'IA locale sur mobile. En intégrant Locally AI à son écosystème, LM Studio étend son périmètre au-delà du Mac et s'impose comme un acteur transversal sur les plateformes Apple, couvrant désormais à la fois ordinateurs et smartphones. Pour les utilisateurs, cela représente une garantie de confidentialité renforcée : les données restent sur l'appareil, sans transmission à des serveurs tiers, ce qui intéresse particulièrement les professionnels soucieux de la souveraineté de leurs données. Le rachat s'inscrit dans une tendance de fond : la course aux modèles légers et efficaces capables de tourner sur du matériel grand public. Apple Silicon a ouvert la voie en offrant des puces suffisamment performantes pour inférer des modèles de plusieurs milliards de paramètres directement sur iPhone ou Mac. LM Studio, en consolidant l'offre iOS et macOS sous une même bannière, se positionne comme la référence de l'IA on-device dans l'univers Apple, face à des concurrents comme Ollama ou GPT4All qui restent cantonnés au desktop.

UEL'acquisition de Locally AI, startup française, par LM Studio illustre la consolidation du marché de l'IA on-device au profit d'acteurs américains, soulevant des questions de souveraineté numérique pour les professionnels français qui misaient sur cette solution indépendante.

BusinessOpinion
1 source
Perplexity voit ses revenus grimper de 50% grâce aux agents IA
35Le Big Data 

Perplexity voit ses revenus grimper de 50% grâce aux agents IA

Perplexity, la startup américaine connue pour son moteur de recherche conversationnel, a vu son chiffre d'affaires annuel récurrent (ARR) bondir à 450 millions de dollars en mars 2026, soit une hausse de 50 % en un seul mois. Cette progression fait suite au lancement de Computer, un agent IA capable d'exécuter des tâches concrètes comme effectuer des achats en ligne, résumer l'actualité ou envoyer des e-mails à partir d'instructions en langage naturel. La société a également introduit un nouveau modèle de tarification à l'usage, qui facture les clients au-delà d'un certain quota de crédits, en complément de ses abonnements mensuels allant de 20 à 200 dollars. Perplexity revendique désormais plus de 100 millions d'utilisateurs actifs mensuels et plusieurs dizaines de milliers de clients professionnels. Pour replacer l'ampleur de cette croissance : l'ARR de la société était de 16 millions de dollars il y a deux ans, avant d'atteindre 305 millions début 2026. Ce bond de 50 % en un mois illustre un pivot stratégique majeur : Perplexity ne cherche plus seulement à concurrencer Google sur la recherche d'information, mais à se positionner sur le marché des agents IA autonomes, un segment en pleine explosion. En proposant des outils capables d'agir à la place de l'utilisateur, la startup s'attaque à un marché beaucoup plus vaste et potentiellement plus rentable que la simple requête web. L'ajout du navigateur Comet, qui intègre des fonctionnalités agentiques directement dans la navigation, et de Model Council, qui interroge plusieurs modèles d'IA en parallèle pour comparer leurs réponses, témoigne d'une diversification rapide de l'offre. Pour les entreprises et les professionnels, ces outils représentent une alternative crédible aux assistants IA des géants comme Google ou Microsoft. Cette ascension se déroule pourtant dans un contexte juridique tendu. Perplexity est visée par plusieurs poursuites d'éditeurs de presse, dont le New York Times et Britannica, pour violation de droits d'auteur et plagiat dans le cadre de son moteur de recherche. Une plainte distincte l'accuse également d'avoir partagé des données d'utilisateurs avec Google et Meta sans consentement, ce que la société rejette. Sur le plan financier, la rentabilité reste hors de portée : Perplexity dépend d'OpenAI, d'Anthropic et d'autres fournisseurs externes pour accéder aux modèles de langage, ce qui génère un coût à chaque requête. Malgré cela, les investisseurs maintiennent leur confiance. La valorisation de l'entreprise a atteint 20 milliards de dollars en septembre 2025, contre 500 millions début 2024, avec au capital des noms comme Nvidia, SoftBank, Jeff Bezos et Yann LeCun. La prochaine étape sera de transformer cette traction commerciale en profitabilité durable.

UELes entreprises européennes peuvent évaluer Perplexity comme alternative crédible aux assistants IA dominants, mais les poursuites pour violation de droits d'auteur soulèvent des questions de conformité avec la directive européenne sur le droit d'auteur.

BusinessActu
1 source
OpenAI dévoile une nouvelle formule d’abonnement ChatGPT à 100 € par mois
36Frandroid 

OpenAI dévoile une nouvelle formule d’abonnement ChatGPT à 100 € par mois

OpenAI a annoncé une nouvelle formule d'abonnement pour ChatGPT tarifée à 100 euros par mois, positionnée au-dessus des offres existantes Plus (20 €/mois) et Pro (200 €/mois). Cette nouvelle offre intermédiaire se distingue par un accès élargi aux outils de développement web intégrés au chatbot, permettant aux utilisateurs de créer, modifier et déployer des applications directement depuis l'interface de ChatGPT. Ce lancement intervient dans un contexte de concurrence accrue avec Anthropic et son assistant Claude, qui a récemment gagné du terrain auprès des développeurs grâce à ses capacités de génération de code et à son interface d'artifacts. En proposant un palier à 100 euros, OpenAI cherche à capter une clientèle professionnelle et technique qui juge le plan Plus insuffisant mais le plan Pro trop onéreux, un segment intermédiaire que les rivaux ont commencé à séduire avec des offres ciblées. La guerre des abonnements dans l'IA générative s'intensifie depuis l'émergence de modèles compétitifs chez Google (Gemini Advanced), Anthropic (Claude Pro) et xAI (Grok). OpenAI, malgré sa position dominante, fait face à une érosion de son avance technologique perçue, notamment sur les tâches de programmation. Cette nouvelle formule s'inscrit dans une stratégie de segmentation tarifaire plus fine, visant à maximiser les revenus tout en maintenant l'engagement des profils à forte valeur ajoutée, alors que la société cherche à atteindre la rentabilité après des années de pertes significatives.

UELa nouvelle formule à 100 €/mois est directement accessible aux professionnels et développeurs français, offrant un palier intermédiaire entre les offres Plus et Pro déjà disponibles en Europe.

💬 100€ par mois, c'est le palier qui manquait pour garder les devs qui commençaient à migrer vers Claude. Le segment "Plus trop limité, Pro trop cher" est réel, et OpenAI fait bien de le formaliser enfin. Reste à voir si les outils de déploiement intégrés suffisent à les faire revenir.

Nouveau remaniement chez OpenAI : des responsables de Stargate quittent leurs postes
37The Information AI 

Nouveau remaniement chez OpenAI : des responsables de Stargate quittent leurs postes

Trois cadres supérieurs d'OpenAI ayant joué un rôle central dans le lancement de l'initiative Stargate quittent l'entreprise. Peter Hoeschele, qui a contribué à poser les bases du projet, a déjà quitté la société. Shamez Hemani, responsable de la stratégie de calcul et du développement commercial, ainsi qu'Anuj Saharan, autre figure clé de l'organisation computing d'OpenAI, ont annoncé leurs départs imminents à leurs collègues dans les prochains jours, selon plusieurs sources proches du dossier. Ces départs simultanés signalent une recomposition majeure au sein de la division infrastructure d'OpenAI, précisément au moment où la société s'apprête à massifier ses investissements en data centers. Stargate est le projet phare d'OpenAI pour construire une infrastructure de calcul à très grande échelle aux États-Unis, avec des engagements annoncés de 500 milliards de dollars sur quatre ans. Perdre en quelques jours les architectes originels de cette initiative soulève des questions sur la continuité de la stratégie et les tensions internes qui la traversent. Stargate a été annoncé en grande pompe en janvier 2025 avec le soutien de SoftBank, Oracle et d'autres partenaires, présenté comme une réponse américaine à la montée en puissance des capacités d'IA chinoises. Depuis, le projet a connu plusieurs ajustements stratégiques, et ces départs suggèrent que la direction d'OpenAI repense en profondeur son approche en matière d'infrastructure. La question reste ouverte de savoir si ces sorties reflètent des désaccords internes sur la vision technique, ou simplement une restructuration ordinaire lors d'un passage à une nouvelle phase d'exécution.

💬 Perdre trois architectes de Stargate en quelques jours, c'est pas anodin. On est à l'étape où l'initiative passe du pitch aux 500 milliards à la vraie exécution, et c'est souvent là que les désaccords remontent. Reste à voir si c'est une sortie "mission accomplie" ou quelque chose de plus tendu.

BusinessActu
1 source
Exclusif : Peter Hoeschele, cadre du projet 'Stargate' chez OpenAI, quitte l'entreprise
38The Information AI 

Exclusif : Peter Hoeschele, cadre du projet 'Stargate' chez OpenAI, quitte l'entreprise

Peter Hoeschele, cadre chez OpenAI en charge de l'initiative Stargate, a quitté l'entreprise, selon une source proche du dossier. Il faisait partie de l'équipe originelle du projet Stargate, le programme d'infrastructure de centres de données qu'OpenAI entend construire et opérer en propre. Sa sortie intervient alors que ce chantier titanesque, annoncé en janvier 2025 avec un investissement de 500 milliards de dollars sur quatre ans, porté par OpenAI, SoftBank et Oracle, entre dans sa phase de déploiement concrète sur le territoire américain. Le départ d'un exécutif fondateur de Stargate soulève des questions sur la stabilité interne du projet à un moment critique. Stargate représente le pari stratégique central d'OpenAI pour s'affranchir de sa dépendance à Microsoft Azure et disposer de sa propre capacité de calcul à grande échelle. Toute turbulence dans l'équipe dirigeante du programme pourrait ralentir des décisions d'ingénierie et de partenariat dont dépend la compétitivité d'OpenAI face à Google, Amazon et Meta dans la course aux infrastructures IA. Hoeschele rejoint une liste croissante de cadres de haut rang ayant quitté OpenAI ces dix-huit derniers mois, dans un contexte de transformation accélérée de l'entreprise, passage au statut de société à but lucratif, levées de fonds record, et pression concurrentielle intense. OpenAI n'a pas commenté officiellement ce départ. La direction opérationnelle de Stargate et l'identité de son successeur éventuel n'ont pas été précisées.

BusinessActu
1 source
OpenAI : prévisions et conjectures
39The Information AI 

OpenAI : prévisions et conjectures

OpenAI fait face à des critiques croissantes sur la crédibilité de ses projections financières. Selon des documents obtenus par The Information, la société prévoit que son chiffre d'affaires total atteindra 284 milliards de dollars d'ici 2030, contre 13 milliards en 2025. Sur le seul segment publicitaire, OpenAI anticipe 2,4 milliards de dollars de revenus publicitaires pour ChatGPT cette année, 11 milliards en 2026, et jusqu'à 102 milliards en 2030, alors que la plateforme n'a commencé à tester la publicité qu'en février 2025. Ces chiffres soulèvent des questions sérieuses sur la rigueur des prévisions communiquées aux investisseurs. L'analyste financier Jim Chanos, réputé pour ses positions à la baisse sur des entreprises surévaluées, a déclaré en février que ces projections s'apparentaient peut-être à de simples "suppositions". Promettre 2,4 milliards de revenus publicitaires sur une année à peine entamée, pour un format publicitaire encore en phase de test, relève d'un optimisme difficilement justifiable. Pour les investisseurs qui participent aux levées de fonds massives d'OpenAI, dont la valorisation dépasse les 300 milliards de dollars, la qualité de ces projections a des implications directes sur leurs décisions d'allocation de capital. OpenAI se trouve dans une position paradoxale : pour justifier des valorisations astronomiques, la société doit présenter des trajectoires de croissance spectaculaires, au risque de perdre en crédibilité si les chiffres réels s'écartent trop des prévisions. L'entreprise cherche à diversifier ses revenus au-delà des abonnements ChatGPT et des accords API, notamment via la publicité et les services aux entreprises. Mais dans un secteur où Google, Meta et Microsoft disposent d'infrastructures publicitaires établies depuis des années, la montée en puissance d'OpenAI sur ce marché reste hautement incertaine. The Information suggère que la direction d'OpenAI aurait tout intérêt à cesser de publier des prévisions à si long terme, qui nuisent davantage à sa réputation qu'elles ne servent ses intérêts.

UELes investisseurs européens exposés aux levées de fonds d'OpenAI (valorisée à 300 milliards de dollars) doivent évaluer la crédibilité de ces projections financières dans leurs décisions d'allocation de capital.

BusinessOpinion
1 source
Anthropic attise l'optimisme autour de l'IA à la conférence HumanX
40The Information AI 

Anthropic attise l'optimisme autour de l'IA à la conférence HumanX

La conférence HumanX a tenu sa deuxième édition cette année au Moscone Center de San Francisco, un changement de décor notable par rapport à l'hôtel de luxe de Las Vegas qui avait accueilli l'événement inaugural. Organisé par l'équipe derrière Money 20/20 et Shoptalk, le rassemblement a réuni des figures de poids du secteur technologique, parmi lesquelles Vinod Khosla, investisseur historique d'OpenAI, et Ali Ghodsi, PDG de Databricks. Anthropic y a notamment affiché un optimisme marqué quant à l'avenir de l'intelligence artificielle. Le changement de lieu a produit des effets contradictoires. D'un côté, San Francisco a facilité la venue de conférenciers de haut rang, la ville étant le coeur névralgique de l'industrie IA. De l'autre, beaucoup de participants semblaient n'y faire qu'un passage entre deux réunions de travail, sans s'attarder comme c'est souvent le cas dans les conférences en dehors de leur lieu de travail. Plusieurs intervenants ont d'ailleurs déploré un public clairsemé lors de leurs panels, ce qui contraste avec l'élan que voulait incarner l'événement. HumanX s'inscrit dans une vague de conférences cherchant à s'imposer comme rendez-vous incontournables d'un secteur en pleine effervescence. Alors que des événements comme le Consumer Electronics Show ou le World Economic Forum accueillent désormais l'IA comme thème central, des formats plus spécialisés tentent de capturer un public professionnel exigeant. La concurrence entre ces rassemblements reflète l'intensité des enjeux autour de l'IA générative, où se jouent alliances stratégiques, financements et positionnements d'influence entre les grands acteurs de la Silicon Valley.

BusinessActu
1 source
OpenAI réduit de moitié son abonnement Pro à 100 $ pour les gros utilisateurs de Codex, sous les tarifs d'Anthropic et Google
41The Decoder 

OpenAI réduit de moitié son abonnement Pro à 100 $ pour les gros utilisateurs de Codex, sous les tarifs d'Anthropic et Google

OpenAI restructure ses offres d'abonnement avec un nouveau plan Pro à 100 dollars par mois, soit la moitié du prix de l'ancien abonnement Pro à 200 dollars. Le changement principal concerne les utilisateurs intensifs de Codex, l'outil de génération de code d'OpenAI, qui bénéficient désormais d'un quota d'utilisation nettement supérieur à ce tarif réduit. Cette annonce positionne OpenAI directement en dessous des offres premium d'Anthropic et de Google dans la bataille des abonnements IA haut de gamme. Pour les développeurs et professionnels faisant un usage intensif de Codex, la réduction est substantielle. À 100 dollars mensuels, OpenAI rend son niveau d'accès le plus avancé accessible à un public plus large, tout en se différenciant tarifairement face à Claude Pro d'Anthropic et à Gemini Advanced de Google, dont les offres équivalentes restent plus chères ou moins généreuses en usage Codex. L'objectif est clair : attirer et fidéliser les développeurs qui constituent le coeur de l'adoption entreprise des modèles d'OpenAI. Ce mouvement s'inscrit dans une guerre des prix qui s'intensifie entre les grands acteurs de l'IA générative. OpenAI, malgré sa position de leader du marché, fait face à une concurrence croissante d'Anthropic avec ses modèles Claude et de Google avec Gemini, tous deux ayant considérablement renforcé leurs capacités de génération de code ces derniers mois. En ciblant explicitement les gros utilisateurs de Codex avec cette offre, OpenAI envoie un signal à l'ensemble de l'écosystème développeur : la compétition sur les prix est désormais aussi importante que la compétition sur les performances.

UELes développeurs français et européens utilisant Codex peuvent désormais accéder au niveau Pro d'OpenAI à 100 $/mois au lieu de 200 $, réduisant la barrière tarifaire face aux offres concurrentes d'Anthropic et Google.

BusinessOpinion
1 source
Le courtier IA Medicare à 3 milliards de dollars soutenu par deux vice-présidents
42The Information AI 

Le courtier IA Medicare à 3 milliards de dollars soutenu par deux vice-présidents

Chapter, une startup new-yorkaise spécialisée dans l'assurance Medicare pour les seniors, a triplé son chiffre d'affaires annualisé l'an dernier pour atteindre 100 millions de dollars, sans augmenter ses effectifs centraux, qui restent à 33 personnes selon son cofondateur et PDG Cobi Blumenfeld-Gantz. L'entreprise, valorisée à 3 milliards de dollars et soutenue par deux anciens vice-présidents américains, utilise l'intelligence artificielle pour simplifier radicalement l'inscription des personnes âgées aux plans Medicare, un processus notoirement complexe aux États-Unis. Ce cas illustre une tendance de fond dans la tech : des startups qui s'attaquent non pas à des secteurs glamour comme la découverte de matériaux ou le développement logiciel, mais à des services existants lourds et inefficaces, pour les réinventer par le logiciel. Le gain de productivité est ici spectaculaire, tripler ses revenus tout en maintenant son effectif à 33 personnes signifie que l'essentiel de la croissance est absorbé par l'automatisation, et non par l'embauche. Pour les consommateurs seniors, cela se traduit par un accompagnement plus rapide et potentiellement plus personnalisé dans un labyrinthe administratif où une mauvaise décision coûte des milliers de dollars par an. Chapter s'inscrit dans une vague de startups qui misent sur l'IA pour concurrencer des acteurs établis dans des secteurs traditionnels : Crosby dans le droit, Hanover Park dans la gestion de fonds. Ces entreprises partagent la même thèse, la valeur ne vient pas du volume humain mais de la qualité du logiciel déployé. La mention de Meta en ouverture n'est pas anodine : le contexte général est celui d'une accélération de l'IA dans tous les domaines, des benchmarks académiques aux applications grand public. Chapter, en choisissant un marché aussi prosaïque que Medicare, parie que les vraies opportunités de croissance se cachent là où personne ne regarde.

BusinessOpinion
1 source
Le secteur de l'IA face à une course aux profits devenue existentielle
43The Verge AI 

Le secteur de l'IA face à une course aux profits devenue existentielle

Anthropic et OpenAI se trouvent à un tournant critique en 2026 : après avoir absorbé des centaines de milliards de dollars d'investissements en capital, en centres de données, en puces et en infrastructure, ces deux géants de l'IA doivent désormais prouver qu'ils peuvent devenir des entreprises véritablement rentables. Les projections financières des deux sociétés, révélées cette semaine par le Wall Street Journal, évoquent une croissance vertigineuse, avec des revenus se chiffrant en centaines de milliards de dollars d'ici la fin de la décennie. Cette semaine encore, OpenAI a levé 122 milliards de dollars supplémentaires, signalant que les marchés continuent de parier sur leur succès, mais la pression pour transformer cet argent en bénéfices n'a jamais été aussi intense, notamment à l'approche de deux des plus grandes introductions en bourse de l'histoire. Ce qui précipite la crise, c'est l'essor des agents IA comme Claude Code, Cowork ou Codex d'OpenAI, qui consomment des ressources de calcul à une cadence bien supérieure à ce que ces entreprises avaient anticipé. Pour gérer cette pression sur leurs infrastructures, les deux sociétés prennent des décisions douloureuses. OpenAI a brutalement supprimé son application de génération vidéo Sora le mois dernier, abandonnant au passage un contrat de licence d'un milliard de dollars avec Disney, au motif que le service coûtait trop cher à faire tourner et que la capacité de calcul était nécessaire pour Codex. Anthropic a de son côté décidé la semaine dernière d'interdire aux utilisateurs de Claude de consommer librement des ressources via le framework open source OpenClaw dans le cadre d'un abonnement standard, les forçant à basculer vers des plans à la consommation, nettement plus onéreux. Ces arbitrages révèlent une tension structurelle qui traverse toute l'industrie de l'IA : les modèles économiques construits sur l'abonnement mensuel ne tiennent plus face à l'appétit en calcul des agents. La plupart des dirigeants du secteur, interrogés ces derniers mois, anticipent d'ailleurs une vague de faillites spectaculaires parmi les acteurs les moins bien capitalisés, estimant que le marché ne pourra pas soutenir indéfiniment toutes les entreprises actuellement en course. Pour Anthropic et OpenAI, dont les introductions en bourse se profilent comme des événements majeurs, la question n'est plus simplement de savoir si l'IA générative est utile, mais si elle peut générer suffisamment de revenus pour justifier les valorisations colossales promises aux investisseurs. Les compromis opérationnels observés ces dernières semaines ne sont probablement que les premiers signes visibles d'un rééquilibrage profond qui va redéfinir quels produits survivent, et à quel prix.

UELe basculement vers une facturation à la consommation pour les agents IA va renchérir les coûts d'usage pour les développeurs et entreprises européens dépendant des APIs d'OpenAI et d'Anthropic.

BusinessOpinion
1 source
OpenAI prévoit que le marché publicitaire atteindra 102 milliards de dollars d'ici 2030
44The Information AI 

OpenAI prévoit que le marché publicitaire atteindra 102 milliards de dollars d'ici 2030

OpenAI mise désormais sur la publicité comme principal moteur de revenus d'ici 2030, avec des projections atteignant 102 milliards de dollars. Selon des prévisions financières internes du premier trimestre 2026, qui n'avaient pas encore été rendues publiques, la société s'attend à générer environ 2,4 milliards de dollars de revenus publicitaires cette année, puis à quadrupler ce chiffre dès 2025 pour approcher les 11 milliards. Ces estimations dépassent largement les projections établies il y a un an, qui tablaient sur 1,6 milliard cette année et 5,9 milliards l'année suivante pour les utilisateurs non abonnés. Ce repositionnement stratégique signale un tournant majeur dans le modèle économique d'OpenAI. Jusqu'ici fortement dépendante des abonnements ChatGPT et des contrats API avec les entreprises, la société cherche à diversifier ses sources de revenus à grande échelle. Faire de la publicité le premier poste de revenus d'ici 2030 implique de transformer ses plateformes en espaces publicitaires capables de rivaliser avec les géants du secteur, ce qui pourrait profondément modifier l'expérience utilisateur de ses produits grand public. OpenAI entre ainsi en concurrence directe avec Google, Meta et Microsoft sur un marché publicitaire dominé par quelques acteurs. La société, valorisée à 157 milliards de dollars après sa dernière levée de fonds, fait face à des dépenses colossales en infrastructure et doit trouver des relais de croissance au-delà des abonnements. L'intégration de la publicité dans ses produits reste toutefois à préciser techniquement et éthiquement, notamment sur la question de la personnalisation des données dans un contexte d'IA générative.

UELe virage publicitaire d'OpenAI pourrait soulever des questions de conformité au RGPD si ChatGPT exploite les données des utilisateurs européens à des fins de ciblage publicitaire.

BusinessOpinion
1 source
Sam Altman fragilisé par une enquête explosive du New Yorker au pire moment pour OpenAI
45Siècle Digital 

Sam Altman fragilisé par une enquête explosive du New Yorker au pire moment pour OpenAI

Ronan Farrow et Andrew Marantz ont publié dans le New Yorker une enquête approfondie sur Sam Altman, présentée comme la dissection la plus documentée jamais réalisée sur le PDG d'OpenAI. Le texte paraît à un moment particulièrement délicat : OpenAI affiche une valorisation de 852 milliards de dollars, mais sa propre directrice financière a jugé une introduction en Bourse compromise pour l'année en cours, tandis que la croissance de l'entreprise montre des signes de ralentissement. Le timing est stratégiquement désastreux pour OpenAI. Une enquête de cette envergure, signée par Ronan Farrow, journaliste connu pour ses révélations ayant contribué au mouvement #MeToo, amplifie les doutes des investisseurs institutionnels déjà préoccupés par la trajectoire financière de l'entreprise. Pour une société qui cherche à convaincre les marchés de sa solidité avant une éventuelle cotation, les révélations sur son dirigeant alimentent l'incertitude au pire moment, fragilisant la confiance indispensable à une opération de cette échelle. OpenAI traverse depuis plusieurs mois une période de turbulences : départs de cadres clés, tensions internes sur la direction stratégique, et pression croissante des concurrents comme Google DeepMind, Anthropic ou les acteurs chinois tels que DeepSeek. Sam Altman, déjà brièvement évincé fin 2023 avant d'être rétabli dans ses fonctions, voit son autorité de nouveau mise en question. L'enquête du New Yorker pourrait accélérer les interrogations sur la gouvernance d'OpenAI et sur la capacité d'Altman à piloter une entreprise aux ambitions aussi colossales.

BusinessOpinion
1 source
Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic
46Le Big Data 

Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic

Eric Boyd a quitté Microsoft la semaine dernière après près de 17 ans au sein de l'entreprise pour rejoindre Anthropic en tant que responsable de l'ensemble de l'infrastructure. Boyd avait intégré Microsoft en 2009 à Redmond, d'abord à la tête de Bing Ads, avant de devenir président de la plateforme IA en 2015, puis de prendre la direction d'Azure AI en 2018 sur nomination de Satya Nadella. Dans ce rôle, il a supervisé le développement des grands modèles de langage de Microsoft et planifié les clusters de calcul utilisés par OpenAI pour entraîner et faire tourner ses modèles, consolidant ainsi la position de Microsoft comme acteur incontournable du cloud IA. Avant cela, il avait passé neuf ans chez Yahoo comme vice-président de l'ingénierie de plateforme, qu'il avait quitté en 2008. Chez Anthropic, Boyd n'occupera pas un simple poste administratif : il est chargé de faire évoluer l'infrastructure critique qui permet à l'entreprise d'héberger, déployer et opérer ses modèles à très grande échelle. Sa mission répond à une urgence concrète, la demande pour les services Claude, et en particulier Claude Code, a connu une croissance explosive ces six derniers mois. Rahul Patil, directeur technique d'Anthropic, a précisé sur LinkedIn que Boyd apportera son expertise des infrastructures pour modèles de base à un moment où la scalabilité devient le principal défi opérationnel de l'entreprise. Pour les utilisateurs de Claude et les entreprises qui s'appuient sur l'API, cette nomination signifie qu'Anthropic mise sérieusement sur sa capacité à tenir la charge, et pas seulement sur la qualité de ses modèles. Ce recrutement s'inscrit dans une séquence d'accélération majeure pour Anthropic. La startup a levé 30 milliards de dollars en février 2026 lors d'un tour de table de série G mené par GIC et Coatue, avec la participation de Microsoft et Nvidia, portant sa valorisation à 380 milliards de dollars. Son chiffre d'affaires annuel récurrent a bondi à 30 milliards de dollars, contre environ 9 milliards fin 2025. Parallèlement, Anthropic recrute activement des profils expérimentés du cloud, deux anciens dirigeants de Google auraient déjà rejoint l'entreprise selon The Information, et négocie pour sécuriser plus de 10 GW de capacité de calcul dans les prochaines années. Un accord avec Google et Broadcom prévoit également le développement ou la location de 3,5 GW de TPU à partir de 2027. L'arrivée de Boyd, l'un des architectes de l'infrastructure IA de Microsoft, illustre qu'Anthropic ne cherche plus seulement à produire les meilleurs modèles : elle veut aussi construire la plomberie pour les délivrer au monde entier.

💬 L'homme qui planifiait les clusters d'entraînement d'OpenAI chez Azure débarque chez Anthropic pour prendre toute l'infrastructure. Bon, les modèles Claude sont déjà excellents, mais si l'infra flanche quand Claude Code explose en prod, tout le reste ne sert à rien, et Boyd a construit exactement cette plomberie à l'échelle industrielle pendant des années. C'est le recrutement qui dit que la course n'est plus seulement sur les modèles.

BusinessOpinion
1 source
META invente l’IA social-native : une nouvelle couche entre contenu, recommandation et commerce
47FrenchWeb 

META invente l’IA social-native : une nouvelle couche entre contenu, recommandation et commerce

Meta opère un virage stratégique majeur dans son approche de l'intelligence artificielle, sous la direction d'Alexandr Wang, nouvellement nommé à la tête du Meta Superintelligence Lab. Le groupe annonce la fin d'un cycle structuré autour de Llama, son modèle open source, au profit d'une nouvelle orientation incarnée par Muse Spark. Ce repositionnement marque une rupture nette avec les années précédentes, où Meta avait bâti sa crédibilité IA sur la diffusion de modèles fondationnaux en open source destinés à la communauté des développeurs. L'enjeu est considérable : Meta cherche à tisser une couche d'IA directement intégrée entre le contenu, la recommandation algorithmique et le commerce sur ses plateformes. Cette "IA social-native" ne serait plus un outil externe greffé sur les produits, mais le système nerveux central d'un écosystème de 3,3 milliards d'utilisateurs quotidiens. Pour les annonceurs, les créateurs et les marques, cela représente une mutation profonde de la manière dont les contenus sont générés, filtrés et monétisés au sein de Facebook, Instagram et WhatsApp. Ce changement de cap intervient dans un contexte de compétition intense entre les grandes plateformes pour contrôler la prochaine couche d'interaction numérique. Google intègre Gemini dans Search et YouTube, Apple déploie ses fonctions IA dans iOS, et TikTok exploite déjà des recommandations fortement pilotées par l'IA. En faisant le pari d'une IA pensée pour l'usage social plutôt que pour la recherche fondamentale, Meta parie que la prochaine bataille ne se jouera pas dans les benchmarks, mais dans l'expérience quotidienne de milliards d'utilisateurs.

UELa refonte de l'IA de Meta affectera directement les annonceurs, créateurs et marques européens présents sur Facebook, Instagram et WhatsApp, dans un cadre réglementaire (AI Act, DSA) imposant des obligations spécifiques sur les systèmes de recommandation algorithmique.

BusinessOpinion
1 source
IA Générative : Anthropic dépasse OpenAI
48ZDNET FR 

IA Générative : Anthropic dépasse OpenAI

Anthropic a annoncé un chiffre d'affaires annualisé de 30 milliards de dollars, franchissant pour la première fois la barre symbolique qui place la startup devant OpenAI dans la course à la monétisation de l'intelligence artificielle générative. Cette progression est portée principalement par l'adoption massive de Claude auprès des entreprises et des grands comptes, qui représentent désormais l'essentiel des revenus de la société fondée par Dario et Daniela Amodei en 2021. Ce dépassement illustre un basculement profond dans la façon dont les entreprises choisissent leurs fournisseurs d'IA. Là où ChatGPT a conquis le grand public, Claude s'est imposé dans les environnements professionnels exigeants, notamment grâce à ses capacités de raisonnement long, sa fenêtre de contexte étendue et une réputation de fiabilité sur des tâches complexes. Pour l'industrie, ce signal remet en cause l'idée qu'OpenAI disposait d'une avance commerciale structurelle impossible à combler. Cette dynamique s'inscrit dans un contexte de compétition acharnée entre les grands laboratoires d'IA, tous en quête d'un modèle économique viable face à des coûts d'infrastructure colossaux. Anthropic, soutenu par des investissements massifs d'Amazon et de Google, a misé sur la sécurité et la robustesse comme arguments de vente différenciants auprès des directions informatiques. La question qui se pose désormais est de savoir si OpenAI, qui prépare une introduction en bourse et diversifie ses offres vers le hardware et les agents autonomes, saura répondre à cette pression concurrentielle croissante.

UELes entreprises et administrations européennes qui évaluent leurs fournisseurs d'IA doivent désormais intégrer Anthropic comme concurrent crédible d'OpenAI dans leurs décisions d'achat et appels d'offres.

BusinessOpinion
1 source
Anthropic recrute le directeur technique de Workday pour développer des applications RH
49The Information AI 

Anthropic recrute le directeur technique de Workday pour développer des applications RH

Peter Bailis, directeur technique de Workday depuis seulement mai 2025, a quitté l'éditeur de logiciels RH le mois dernier pour rejoindre Anthropic. Cette décision intervient alors qu'Anthropic intensifie ses efforts pour développer des applications dédiées aux ressources humaines, se positionnant directement en concurrence avec les acteurs historiques du secteur comme Workday, SAP ou Oracle. Ce départ illustre une dynamique qui inquiète de plus en plus les investisseurs des entreprises logicielles traditionnelles : les startups d'IA ne se contentent plus de fournir des modèles de fondation, elles visent désormais les marchés applicatifs où les éditeurs établis tirent l'essentiel de leurs revenus. Pour Workday, dont la capitalisation boursière dépasse les 50 milliards de dollars, perdre son CTO au profit d'un concurrent direct en pleine montée en puissance envoie un signal fort sur la pression concurrentielle qui s'exerce sur le secteur. Anthropic, valorisé à 61 milliards de dollars après sa dernière levée de fonds, cherche à transformer ses capacités en IA en produits B2B concrets, au-delà de Claude et de son API. Le recrutement de cadres issus des éditeurs traditionnels s'inscrit dans cette stratégie : s'appuyer sur leur expertise métier pour concevoir des outils capables de rivaliser avec des plateformes installées depuis des décennies dans les grandes entreprises. La bataille pour le marché des logiciels d'entreprise ne fait que commencer.

UESAP, acteur européen majeur des logiciels d'entreprise, est directement cité comme cible de la stratégie applicative d'Anthropic, ce qui pourrait affecter sa position concurrentielle sur le marché RH.

BusinessOpinion
1 source
Nebius en discussions pour racheter la startup israélienne AI21 après l'échec des négociations avec Nvidia
50The Information AI 

Nebius en discussions pour racheter la startup israélienne AI21 après l'échec des négociations avec Nvidia

Nebius, fournisseur cloud soutenu par Nvidia et valorisé à 32 milliards de dollars, est en discussions pour racheter la startup israélienne AI21 Labs, selon des sources proches du dossier. La société, basée à Amsterdam, cherche à élargir ses services d'intelligence artificielle au-delà de son activité principale de location de serveurs GPU. AI21 Labs, dont la dernière valorisation connue était de 1,4 milliard de dollars en 2023, développe des grands modèles de langage et des systèmes d'agents pour les entreprises. Ce rachat potentiel permettrait à Nebius de monter dans la chaîne de valeur de l'IA, en passant de simple infrastructure à fournisseur de solutions logicielles complètes. Pour ses clients, cela signifierait un accès intégré à des modèles et outils d'IA directement via la plateforme cloud, sans passer par des tiers. Pour AI21 Labs, une acquisition représente une issue après l'échec d'une précédente tentative de vente à Nvidia, qui ne s'était pas concrétisée. AI21 Labs fait partie de la première vague de startups israéliennes spécialisées en IA générative, concurrente directe d'OpenAI et Anthropic sur le segment entreprise. La startup avait levé des fonds auprès d'investisseurs majeurs dont Google, Intel Capital et Nvidia lui-même. Le secteur cloud connaît une consolidation accélérée, les fournisseurs d'infrastructure cherchant à intégrer verticalement des capacités IA pour fidéliser leurs clients face à la concurrence d'AWS, Azure et Google Cloud.

UENebius étant basée à Amsterdam, ce rachat potentiel renforcerait la position d'un acteur cloud ancré en Europe dans la chaîne de valeur de l'IA générative enterprise.

BusinessActu
1 source