Aller au contenu principal
Google refond sa data stack pour les agents autonomes, non plus pour les humains
InfrastructureVentureBeat AI5j

Google refond sa data stack pour les agents autonomes, non plus pour les humains

1 source couvre ce sujet·Source originale ↗·

Google a dévoilé mercredi lors de sa conférence Cloud Next une refonte majeure de son infrastructure de données d'entreprise, baptisée "Agentic Data Cloud". L'annonce, portée par Andi Gutmans, vice-président et directeur général de Data Cloud chez Google Cloud, repose sur trois piliers : le Knowledge Catalog, un nouveau catalogue sémantique automatisé ; un data lakehouse multi-cloud ; et le Data Agent Kit, un ensemble d'outils MCP intégrables directement dans VS Code, Claude Code et Gemini CLI. Le Knowledge Catalog est une évolution de Dataplex, le produit de gouvernance de données existant de Google, mais avec une architecture profondément différente : là où les anciens catalogues exigeaient qu'une équipe de data stewards étiquette manuellement les tables et définisse les termes métier, le nouveau système utilise des agents pour automatiser entièrement ce travail. Il couvre nativement BigQuery, Spanner, AlloyDB et Cloud SQL, et s'interconnecte avec des catalogues tiers comme Collibra, Atlan et Datahub, ainsi qu'avec des applications SaaS telles que SAP, Salesforce Data360, ServiceNow et Workday, sans déplacement de données.

Ce changement architectural répond à un problème concret qui touche les équipes data des grandes entreprises : les plateformes actuelles ont été conçues pour des humains qui posent des questions, pas pour des agents IA qui agissent en continu et de manière autonome. Avec le Data Agent Kit, les ingénieurs data peuvent désormais décrire des résultats attendus plutôt qu'écrire des pipelines, ce qui représente un changement de paradigme dans le quotidien des équipes techniques. Sur le plan de l'infrastructure, la nouvelle approche multi-cloud est particulièrement significative : BigQuery peut désormais interroger des tables au format Apache Iceberg stockées sur Amazon S3, via la couche réseau privée Cross-Cloud Interconnect de Google, sans frais de sortie de données et avec des performances comparables à celles d'un entrepôt natif AWS. Toutes les fonctions IA de BigQuery s'appliquent à ces données distantes sans modification. Une fédération bidirectionnelle est également en cours de déploiement avec Databricks Unity Catalog, Snowflake Polaris et AWS Glue Data Catalog.

Cette annonce s'inscrit dans une course que se livrent les grands acteurs du cloud pour capter le marché de l'infrastructure IA d'entreprise. Les architectures de données actuelles ont été pensées pour des cycles de reporting et de tableaux de bord, ce que Google qualifie d'"intelligence réactive". Mais à mesure que les agents IA sont déployés pour prendre des décisions et déclencher des actions directement dans les systèmes métier, cette approche montre ses limites. Google n'est pas seul sur ce terrain : Databricks, Snowflake et AWS investissent massivement dans des architectures similaires. En intégrant ses outils directement dans des environnements de développement comme VS Code et Claude Code, Google cherche à s'imposer comme la couche de données de référence dans un monde où l'IA opère à l'échelle de l'entreprise, vingt-quatre heures sur vingt-quatre.

Impact France/UE

Les entreprises européennes opérant en multi-cloud AWS/GCP pourront interroger leurs données sans frais de transfert sortant, et les équipes data pourront intégrer le Data Agent Kit dans VS Code pour automatiser leurs pipelines sans réécriture de code.

À lire aussi

1Le Big Data 

Minisforum : comment l’expert du mini-PC est devenu l’architecte de l’IA locale

Fondée en 2012 à Shenzhen sous le nom BESTSTAR TECH, la société qui allait devenir Minisforum a d'abord opéré dans l'ombre comme fabricant OEM, produisant des mini-PC pour des marques tierces comme Kodlix. Son virage grand public intervient en 2019, date à laquelle elle lance sa propre marque et affronte directement la concurrence mondiale. Depuis, l'entreprise a noué des partenariats stratégiques avec Intel et AMD pour accéder aux puces les plus récentes, et elle a progressivement repoussé les limites du format compact. Aujourd'hui, son catalogue s'articule autour de machines capables d'embarquer des processeurs de bureau dans des boîtiers de quelques litres, avec des connectiques haut de gamme comme l'OCuLink et l'USB4 v2. Le modèle phare de cette trajectoire est la MS-02 Ultra, distinguée par une médaille d'or aux CES 2026 Innovation Awards : ce châssis de seulement 4,8 litres accueille un processeur Core Ultra 9 285HX, jusqu'à 256 Go de DDR5 ECC, un port PCIe 5.0 x16 compatible avec des GPU dual-slot comme la RTX 5070, et un système de refroidissement à six caloducs pour absorber un TDP total de 240 W sans aucun bridage thermique. Cette montée en puissance n'est pas anodine. Elle répond à une demande croissante de professionnels et d'indépendants qui souhaitent faire tourner des charges de travail lourdes, virtualisation sous Proxmox, rendu 3D sous Blender, serveurs d'entreprise ou création vidéo en 16K, sans recourir à des tours encombrantes ni à des infrastructures cloud coûteuses. Avec plus de quatre millions d'utilisateurs revendiqués, Minisforum s'est imposé comme une référence dans un segment longtemps perçu comme secondaire. La station MS-02 Ultra casse définitivement le préjugé selon lequel la compacité implique un compromis sur la puissance brute. Le tournant le plus structurant reste cependant l'Edge AI. Jusqu'ici, les applications d'intelligence artificielle dépendaient de serveurs distants, ce qui entraînait des latences élevées et des risques réels pour la confidentialité des données. En 2026, les nouvelles générations de puces embarquent des NPU atteignant 86 TOPS, capables de traiter des modèles complexes en moins de 10 millisecondes directement en local, sans connexion cloud. Minisforum se positionne à l'avant-garde de cette bascule : ses appareils permettent de faire tourner des LLMs ou des pipelines d'inférence sur du matériel personnel, réduisant à la fois la dépendance aux infrastructures tierces et l'exposition des données sensibles. Ce mouvement vers l'IA embarquée redéfinit ce qu'un particulier ou une PME peut accomplir avec une machine tenant sur un bureau.

UEL'essor de l'IA locale embarquée sur mini-PC répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux PME et indépendants européens de traiter des données sensibles sans dépendre du cloud américain.

InfrastructureOpinion
1 source
Canonical présente son plan pour intégrer l'IA dans Ubuntu Linux
2The Verge 

Canonical présente son plan pour intégrer l'IA dans Ubuntu Linux

Canonical, l'entreprise britannique éditrice d'Ubuntu, l'une des distributions Linux les plus utilisées au monde, a annoncé lundi un plan détaillé pour intégrer l'intelligence artificielle dans son système d'exploitation au cours des douze prochains mois. Jon Seager, vice-président de l'ingénierie chez Canonical, a publié un billet de blog exposant deux grandes orientations : d'abord enrichir les fonctionnalités existantes d'Ubuntu grâce à des modèles d'IA travaillant en arrière-plan, puis introduire des fonctionnalités et flux de travail dits "AI native" pour les utilisateurs qui le souhaitent. Parmi les exemples cités figurent des outils d'accessibilité améliorés comme la reconnaissance et la synthèse vocale, ainsi que des fonctionnalités agentiques capables d'exécuter des tâches complexes de manière autonome. Cette annonce marque un tournant pour Ubuntu, dont la base d'utilisateurs va des développeurs individuels aux grandes entreprises et infrastructures cloud. L'intégration native de l'IA directement dans le système d'exploitation pourrait transformer l'expérience quotidienne des utilisateurs, notamment pour l'automatisation de tâches, l'accessibilité et la productivité, sans dépendre d'applications tierces. Canonical rejoint ainsi une vague plus large d'éditeurs de systèmes d'exploitation qui cherchent à embarquer l'IA au coeur même de leurs plateformes, à l'image de Microsoft avec Copilot dans Windows ou d'Apple avec ses fonctionnalités Apple Intelligence. Pour Ubuntu, dont la force repose sur sa communauté open source et son adoption massive dans les environnements serveurs et développeurs, le défi sera d'implémenter ces capacités de manière transparente et respectueuse de la vie privée, tout en restant fidèle à l'esprit du logiciel libre.

UECanonical (entreprise britannique) éditrice d'Ubuntu, largement déployé dans les infrastructures serveurs et clouds européens, soulève des enjeux de conformité RGPD pour les organisations de la zone UE qui devront évaluer les flux de données liés aux futures fonctionnalités IA embarquées.

InfrastructureActu
1 source
ChatGPT Phone : tout ce qu’on sait du smartphone IA agentique qui veut tuer l’iPhone
3Le Big Data 

ChatGPT Phone : tout ce qu’on sait du smartphone IA agentique qui veut tuer l’iPhone

OpenAI prépare son propre smartphone, baptisé en interne « Agentic Phone » ou « ChatGPT Phone », pour un lancement commercial prévu à l'horizon 2028. Le projet est orchestré par Sam Altman et le designer britannique Jony Ive, ancien directeur du design chez Apple et père de l'iPhone, qui travaille désormais pour OpenAI via son studio LoveFrom. Les premiers prototypes circulent déjà en interne depuis 2026. Financé en partie par SoftBank, l'appareil repose sur des puces NPU sur mesure développées en partenariat avec Qualcomm et MediaTek, conçues pour exécuter des modèles d'IA directement sur l'appareil, sans dépendre du cloud, garantissant rapidité et confidentialité. Ce qui distingue fondamentalement ce projet des smartphones existants, c'est le concept d'IA « agentique » : l'appareil ne se contente pas de répondre à des requêtes, il agit à la place de l'utilisateur. Fini l'enchaînement d'applications séparées pour réserver un taxi, envoyer un message et bloquer un créneau dans son agenda. L'utilisateur formule une instruction globale, et l'IA exécute l'ensemble des micro-tâches via les API concernées, sans interaction avec un écran. Ce modèle dits « Zéro UI » rend structurellement obsolète le paradigme de l'App Store, sur lequel reposent les revenus d'Apple, qui génère des dizaines de milliards de dollars annuels via ses commissions. Pour les développeurs, les utilisateurs et les plateformes, le changement de modèle serait radical : l'interface disparaît au profit d'une couche d'abstraction pilotée par l'IA. Ce projet s'inscrit dans une course plus large à la reconfiguration de l'informatique personnelle. Depuis l'émergence des grands modèles de langage comme GPT-4 puis GPT-5, plusieurs acteurs cherchent à transposer leur puissance dans le hardware du quotidien. Le Humane Pin et le Rabbit R1 ont tenté l'exercice avant OpenAI, avec des résultats décevants, faute de modèles suffisamment capables. OpenAI parie que ses prochaines générations de modèles, GPT-5.5 et au-delà, atteindront le niveau d'autonomie nécessaire pour que l'expérience soit réellement fluide. Apple, de son côté, reste contraint par la logique de l'App Store et de ses partenariats développeurs, ce qui ralentit sa capacité à adopter une interface agentique complète. Si OpenAI réussit à combiner un hardware performant, une IA locale robuste et une expérience sans friction, le rapport de force dans l'industrie mobile pourrait changer pour la première fois depuis 2007.

UESi ce smartphone agentique atteint le marché européen d'ici 2028, il pourrait fragiliser le modèle économique des développeurs d'applications européens dépendant des app stores, et soulève des questions réglementaires au regard de l'AI Act sur les systèmes IA autonomes à haute autonomie d'action.

InfrastructureOpinion
1 source
最前线|爱芯元智仇肖莘:大算力芯片将成为企业明年的主要增长引擎
436Kr 

最前线|爱芯元智仇肖莘:大算力芯片将成为企业明年的主要增长引擎

Le fabricant chinois de semi-conducteurs Aixtek (爱芯元智) a profité du Salon de l'automobile de Pékin pour annoncer la formation de la « Qianli Alliance » avec Qianli Technology et Jiyue, tout en confirmant le lancement de sa puce M97 pour le troisième trimestre 2025. Sa fondatrice Qiu Xiaoshen a déclaré publiquement que la puce, dédiée à l'assistance à la conduite à haute puissance de calcul, avait déjà passé l'étape du « tape-out » et entrait dans son cycle de développement standard. Dotée de plus de 700 TOPS de puissance de calcul, elle sera progressivement intégrée dans plusieurs modèles de véhicules dès 2026. Aujourd'hui, les produits traditionnels de calcul embarqué représentent encore plus de 80 % du chiffre d'affaires d'Aixtek, mais la direction prévoit que cette répartition se rééquilibrera profondément dans les trois prochaines années. La M97 est conçue pour résoudre un problème structurel que Qiu Xiaoshen identifie comme le talon d'Achille des puces d'assistance à la conduite actuelles : la bande passante mémoire insuffisante. Elle explique qu'une puce de 2 000 TOPS ne délivre pas sa pleine puissance si la bande passante DDR est le goulot d'étranglement. En choisissant un procédé de fabrication d'une génération d'avance sur les concurrents (5 nm ou 4 nm contre 7 nm), Aixtek vise des fréquences DDR supérieures à 8 533 MT/s, voire 9 600 MT/s, contre un maximum de 6 400 MT/s en 7 nm. Ce saut de procédé réduit également la surface du die et améliore les rendements de production, ce qui contribue à la maîtrise des coûts. La stratégie d'Aixtek s'inscrit dans un contexte où l'évolution technologique de la conduite autonome reste incertaine, mais converge vers des architectures de plus en plus gourmandes en calcul : modèles end-to-end, VLM (Vision-Language Models), et désormais VLA (Vision-Language-Action), qui tentent de fusionner compréhension sémantique et pilotage en un seul modèle. L'entreprise, qui se positionne comme une plateforme de puces « neutre et indépendante » afin de laisser aux constructeurs le choix de leur fournisseur, mise également sur le calcul en périphérie (edge computing) : deux nouvelles puces edge seront lancées au second semestre 2025, compatibles avec les grands modèles comme Qwen. Qiu Xiaoshen voit dans les boîtiers d'agents IA locaux, capables de faire tourner un LLM à domicile sans passer par le cloud, un marché grand public à fort potentiel d'explosion.

UEImpact indirect sur les équipementiers automobiles européens qui suivent l'évolution des puces ADAS chinoises comme référence concurrentielle.

InfrastructureActu
1 source