Aller au contenu principal
Anthropic a testé le retrait de Claude Code du plan Pro
BusinessArs Technica AI5j

Anthropic a testé le retrait de Claude Code du plan Pro

2 sources couvrent ce sujet·Source originale ↗·
Egalement couvert par :Next INpact

Anthropic a brièvement semé la confusion chez ses utilisateurs développeurs en faisant apparaître sur sa page de tarification que Claude Code, son outil de développement agentique, ne serait plus accessible aux abonnés du plan Pro à 20 dollars par mois. Les nouveaux inscrits au plan Pro se sont retrouvés dans l'impossibilité d'accéder à Claude Code, tandis que les abonnés existants n'ont constaté aucune interruption de service. L'information s'est rapidement propagée sur Reddit et X, où de nombreux développeurs ont signalé la modification visible sur la page officielle d'Anthropic : Claude Code apparaissait comme non pris en charge en Pro, et uniquement disponible à partir du plan Max, facturé 100 dollars par mois minimum. Amol Avasare, responsable de la croissance chez Anthropic, a finalement pris la parole sur les réseaux sociaux pour préciser qu'il s'agissait d'un "test limité à environ 2 % des nouveaux abonnés prosumer".

Ce type de test de tarification, même discret, a des implications concrètes pour les milliers de développeurs indépendants et de petites équipes qui s'appuient sur Claude Code à travers l'abonnement Pro comme alternative économique aux offres professionnelles plus coûteuses. Déplacer Claude Code vers le palier Max multiplierait par cinq le coût mensuel, ce qui représente un seuil significatif pour les utilisateurs individuels. La réaction rapide et visible de la communauté illustre à quel point les outils d'assistance au développement par IA sont devenus centraux dans les flux de travail quotidiens, et à quel point leur accessibilité tarifaire est scrutée de près.

Claude Code s'est imposé en quelques mois comme l'un des environnements de développement assisté par IA les plus appréciés du marché, en concurrence directe avec GitHub Copilot, Cursor et d'autres outils similaires. Anthropic navigue actuellement entre deux impératifs : rendre ses modèles accessibles pour stimuler l'adoption, tout en trouvant un modèle économique viable pour des fonctionnalités à forte consommation de compute comme les agents autonomes. Ce test, même avorté ou limité, révèle que l'entreprise explore activement comment repositionner ses outils les plus puissants dans des offres mieux monétisées, une tendance que l'on observe également chez OpenAI et Google avec leurs propres produits destinés aux développeurs.

Impact France/UE

Les développeurs indépendants français et européens abonnés au plan Pro pourraient voir leur coût mensuel multiplié par cinq si Anthropic décidait de réserver Claude Code au plan Max.

À lire aussi

1VentureBeat AI 

Microsoft et OpenAI mettent fin à l'exclusivité de leur accord, ouvrant AWS et Google Cloud à OpenAI

Microsoft et OpenAI ont annoncé lundi une refonte majeure de leur partenariat, mettant fin à l'exclusivité commerciale qui liait les deux entreprises depuis 2019. Selon les nouvelles modalités, OpenAI peut désormais distribuer ses produits sur n'importe quel fournisseur cloud, y compris Amazon Web Services et Google Cloud, une rupture avec l'accord initial qui réservait exclusivement à Azure l'hébergement de l'API d'OpenAI. Microsoft cesse de percevoir une part de revenus sur les accès aux modèles d'OpenAI via Azure, tandis qu'OpenAI continuera de reverser 20 % de ses recettes à Microsoft jusqu'en 2030, avec un plafond global désormais fixé. Microsoft conserve une licence sur la propriété intellectuelle d'OpenAI jusqu'en 2032, mais celle-ci est explicitement non exclusive. Les deux entreprises ont présenté cet accord dans des billets de blog publiés simultanément lundi. Cette restructuration ouvre la voie à OpenAI pour séduire les grandes entreprises qui exigent une flexibilité multi-cloud. Ces clients, le segment à la croissance la plus rapide d'OpenAI, refusaient de dépendre d'un seul fournisseur d'infrastructure. En permettant à OpenAI de vendre directement sur AWS et Google Cloud, l'accord lève un frein commercial majeur à un moment où la concurrence entre fournisseurs de modèles s'intensifie. Pour Microsoft, la fin de la part de revenus sur Azure représente un manque à gagner potentiel, mais l'entreprise conserve un accès privilégié et une licence sur la technologie d'OpenAI jusqu'en 2032. Pour l'industrie dans son ensemble, ce virage signale que même les alliances technologiques les plus exclusives cèdent sous la pression des réalités commerciales. Le partenariat originel remontait à 2019, quand Microsoft avait investi 1 milliard de dollars dans OpenAI, avant de porter ses engagements cumulés à plus de 13 milliards. En échange, Microsoft obtenait un accès commercial exclusif aux modèles d'OpenAI et à sa propriété intellectuelle. L'accord contenait même une clause philosophique singulière : l'exclusivité de Microsoft devait durer jusqu'à ce qu'OpenAI atteigne l'intelligence artificielle générale, dont la définition était laissée à la discrétion du conseil d'administration d'OpenAI. Ce modèle fonctionnait quand OpenAI n'était qu'un laboratoire de recherche, mais l'explosion de ChatGPT fin 2022 et la montée en flèche des revenus vers plusieurs milliards de dollars annuels ont rendu la contrainte insoutenable. La directrice des revenus d'OpenAI, Denise Dresser, avait récemment reconnu en interne que le partenariat "limitait la capacité de l'entreprise à rejoindre les clients là où ils se trouvent". Après des mois de tensions en coulisses, de contradictions publiques et de menaces de litiges, les deux entreprises ont choisi de transformer leur alliance exclusive en une relation commerciale stratégique mais nettement plus souple.

UELes entreprises européennes utilisant OpenAI gagnent en flexibilité multi-cloud, pouvant désormais déployer les modèles sur AWS et Google Cloud sans dépendance exclusive à Azure.

BusinessOpinion
1 source
2SCMP Tech 

DeepSeek propose son modèle V4 à 97 % moins cher que GPT-5.5 d'OpenAI

DeepSeek a annoncé dimanche une baisse drastique des tarifs de ses modèles d'intelligence artificielle, dont son dernier modèle V4, désormais proposé à 97 % moins cher que les produits d'OpenAI. Concrètement, le coût minimum des entrées en cache pour les utilisateurs d'API tombe à environ 0,14 dollar par million de tokens, soit un dixième du prix précédent. Cette réduction s'applique aux "input cache hits", c'est-à-dire aux situations où un contexte déjà traité est réutilisé, ce qui concerne une grande partie des appels API en production. Cette annonce pourrait déclencher une nouvelle guerre des prix dans un secteur déjà sous pression. Pour les développeurs et les entreprises qui s'appuient sur des API de LLMs pour leurs applications, un écart de prix de 97 % par rapport à GPT-5.5 d'OpenAI représente un argument économique difficile à ignorer. Cela contraint directement les acteurs occidentaux à revoir leur stratégie tarifaire ou à justifier différemment la valeur de leurs modèles. DeepSeek s'est imposé début 2025 comme un compétiteur sérieux face aux géants américains, notamment avec son modèle R1 qui avait surpris l'industrie par ses performances à coût réduit. La startup chinoise capitalise sur des architectures optimisées et des coûts d'infrastructure inférieurs pour casser les prix. Cette dynamique s'inscrit dans une rivalité technologique plus large entre la Chine et les États-Unis sur le terrain de l'IA, où la course à la performance s'est progressivement doublée d'une course aux prix accessibles.

UELes développeurs et entreprises européennes utilisant des APIs LLM peuvent réduire drastiquement leurs coûts d'inférence, tout en bénéficiant d'une pression à la baisse sur les tarifs des autres fournisseurs présents sur le marché européen.

BusinessOpinion
1 source
Fin de l'exclusivité : Microsoft autorise OpenAI à recourir à d'autres fournisseurs cloud
3Ars Technica AI 

Fin de l'exclusivité : Microsoft autorise OpenAI à recourir à d'autres fournisseurs cloud

Microsoft et OpenAI ont annoncé conjointement une révision majeure de leur accord de partenariat, mettant fin à l'exclusivité qui liait les deux entreprises depuis 2019. Selon les termes du nouvel accord, OpenAI pourra désormais proposer l'ensemble de ses produits et modèles à des clients utilisant n'importe quel fournisseur cloud, et non plus exclusivement Microsoft Azure. Microsoft conserve néanmoins une licence sur la propriété intellectuelle et les modèles d'OpenAI jusqu'en 2032, et Azure demeure le "partenaire cloud principal" de l'entreprise pendant cette période. Le partage de revenus de 20 % versé par OpenAI à Microsoft est maintenu, mais il sera désormais plafonné à un montant non divulgué et uniquement garanti jusqu'en 2030. Ce changement ouvre une brèche considérable dans l'un des accords les plus structurants de l'industrie de l'intelligence artificielle. OpenAI pourra désormais nouer des partenariats avec des concurrents d'Azure comme Amazon Web Services ou Google Cloud Platform, intensifiant la compétition entre les géants du cloud pour héberger les modèles les plus puissants du marché. Pour les entreprises clientes d'OpenAI, cela signifie potentiellement plus de flexibilité dans le choix de leur infrastructure. Côté Microsoft, l'accord reste avantageux sur le plan de la licence, mais le groupe cède une position d'exclusivité qu'il détenait depuis six ans. Le partenariat originel avait débuté en 2019 avec un investissement initial de Microsoft d'un milliard de dollars, suivi d'engagements supplémentaires estimés à plusieurs milliards. L'un des points les plus controversés de l'accord initial était la "clause AGI" : elle prévoyait la fin de l'exclusivité si OpenAI venait à atteindre le seuil de l'intelligence artificielle générale, un critère notoirement difficile à définir. La révision annoncée rend désormais le partage de revenus "indépendant des progrès technologiques d'OpenAI", supprimant de fait cette clause ambiguë. Cette évolution intervient alors qu'OpenAI cherche à s'affirmer comme une entreprise pleinement indépendante, dans un contexte où les débats autour de sa gouvernance et de son statut à but non lucratif continuent d'agiter la Silicon Valley.

UELes entreprises européennes clientes d'OpenAI pourront désormais choisir librement leur fournisseur cloud (AWS, GCP) au lieu d'être contraintes à Azure, offrant plus de flexibilité stratégique et potentiellement de meilleures conditions tarifaires.

BusinessOpinion
1 source
La Chine bloque le rachat de Manus par Meta, sur fond de rivalité sino-américaine en IA
4Ars Technica AI 

La Chine bloque le rachat de Manus par Meta, sur fond de rivalité sino-américaine en IA

Le gouvernement chinois a officiellement ordonné à Meta de défaire son acquisition de la société d'intelligence artificielle Manus le 27 avril 2026, invoquant des raisons de sécurité nationale. Cette transaction, conclue en décembre 2025 pour un montant de 2 milliards de dollars, avait déjà été placée sous enquête dès janvier 2026, les autorités de Pékin ayant en parallèle interdit aux deux cofondateurs de Manus, des entrepreneurs technologiques chinois, de quitter le territoire national pendant la durée de l'investigation, selon le Wall Street Journal. La décision finale consacre l'interdiction totale des investissements étrangers dans Manus au nom de la sécurité nationale. Ce blocage illustre à quel point les transactions transfrontalières entre entreprises américaines et chinoises dans le domaine de l'IA sont devenues quasi impossibles à mener à terme. Des deux côtés du Pacifique, les autorités adoptent une ligne de plus en plus dure face aux opérations de fusion-acquisition impliquant des technologies sensibles. Pour Meta, il s'agit d'un revers stratégique majeur : l'entreprise perd l'accès à une technologie d'agents IA avancée et doit rembourser ou restructurer un investissement de deux milliards de dollars. Pour l'industrie, ce précédent envoie un signal clair sur les limites imposées aux partenariats sino-américains dans les secteurs jugés stratégiques. Manus avait fait son entrée remarquée en mars 2025 en se présentant comme un agent IA généraliste capable de réaliser des tâches complexes pour le compte des utilisateurs, comme rechercher un bien immobilier ou réserver des billets d'avion et des hôtels. Techniquement, le système fonctionne comme une surcouche agentique reposant sur le modèle Claude 3.7 Sonnet d'Anthropic, coordonnant plusieurs agents spécialisés, dont un agent planificateur et un agent exécuteur capable de naviguer sur des sites web, créer des tableurs et même développer des applications. Dans un contexte de rivalité technologique croissante entre Washington et Pékin, notamment sur les grands modèles de langage et les agents autonomes, cette affaire illustre comment l'IA est désormais traitée comme un enjeu de souveraineté nationale à part entière.

UELa rivalité sino-américaine en IA contraint les entreprises européennes à choisir leur camp et complique tout partenariat ou acquisition transfrontalière impliquant des acteurs des deux blocs.

💬 2 milliards pour récupérer rien du tout. Ce blocage était prévisible depuis que les deux blocs traitent l'IA comme de l'armement, mais ça fait quand même bizarre de voir Meta se faire éjecter par Pékin sur un agent qui tournait sous Claude. Les boîtes européennes feraient bien de prendre note avant de se retrouver coincées au milieu.

BusinessOpinion
1 source