Aller au contenu principal
NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark
AutreNVIDIA AI Blog2sem

NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark

1 source couvre ce sujet·Source originale ↗·

Google et NVIDIA ont annoncé cette semaine une collaboration pour optimiser la nouvelle famille de modèles Gemma 4 sur les GPU NVIDIA, couvrant un spectre matériel allant des modules embarqués Jetson Orin Nano aux PC et stations de travail RTX, en passant par le superordinateur personnel DGX Spark. La gamme comprend quatre variantes — E2B, E4B, 26B et 31B — chacune ciblant un segment précis : les modèles E2B et E4B sont conçus pour une inférence ultra-rapide et hors-ligne sur des appareils à faible consommation, tandis que les 26B et 31B visent des cas d'usage plus exigeants comme le raisonnement complexe et les workflows de développement. Ces modèles multimodaux prennent en charge le texte, les images, la vidéo et l'audio, acceptent des entrées mixtes dans un même prompt, et couvrent nativement plus de 35 langues, avec un préentraînement sur plus de 140. Ils intègrent également un support natif pour les appels de fonctions structurés, fondement des architectures agentiques.

L'enjeu principal est de rendre l'IA agentique accessible localement, sans dépendance au cloud. Jusqu'ici, faire tourner un assistant IA capable de raisonner, coder et interagir avec des fichiers personnels nécessitait soit une connexion internet, soit du matériel serveur coûteux. Avec Gemma 4 optimisé pour les Tensor Cores NVIDIA via CUDA, des machines grand public comme un PC équipé d'une RTX 5090 peuvent exécuter le modèle 31B avec des performances compétitives — les benchmarks réalisés avec llama.cpp (b7789) montrent un débit de génération de tokens mesurable à ISL 4096 et OSL 128. Des applications comme OpenClaw, déjà compatible avec ces nouveaux modèles, permettent de construire des agents locaux qui accèdent aux fichiers, applications et workflows de l'utilisateur en temps réel, sans que les données quittent la machine.

Ce lancement s'inscrit dans une dynamique plus large d'ouverture des modèles de frontier, portée par Google DeepMind avec la famille Gemma depuis 2024. La collaboration avec NVIDIA vise à réduire le fossé entre les performances des modèles propriétaires cloud et ce qu'un développeur peut faire tourner chez lui. NVIDIA s'est associé à Ollama et llama.cpp pour simplifier le déploiement local, tandis qu'Unsloth propose dès le premier jour des versions quantifiées et optimisées pour le fine-tuning via Unsloth Studio. À mesure que la course aux modèles locaux s'intensifie — face à des acteurs comme Meta avec LLaMA ou Mistral AI — la capacité de Google à distribuer des modèles performants sur du matériel NVIDIA grand public représente un levier stratégique pour étendre l'écosystème Gemma bien au-delà des serveurs de données.

Impact France/UE

La concurrence directe de Gemma 4 avec les modèles de Mistral AI accentue la pression sur l'écosystème open source européen, tandis que les développeurs français bénéficient d'un accès immédiat à des modèles multimodaux performants exécutables localement via des outils déjà disponibles (Ollama, llama.cpp, Unsloth).

💬 Le point de vue du dev

Un 31B qui tourne sur une RTX sans toucher au cloud, c'est le verrou qui lâche enfin. Ce qui me convainc surtout, c'est l'écosystème autour (Ollama, Unsloth, llama.cpp dès J1) : si tu as du matériel NVIDIA chez toi, tu peux tester ça ce soir. Reste à voir si les perfs tiennent en conditions réelles, les benchmarks à contexte fixe c'est pas toujours très révélateur.

À lire aussi

Un système d'IA apprend à fluidifier la circulation des robots en entrepôt
1Robohub 

Un système d'IA apprend à fluidifier la circulation des robots en entrepôt

Des chercheurs du MIT et de la société américaine Symbotic ont publié le 20 avril 2026 dans le Journal of Artificial Intelligence Research un système hybride capable de coordonner en temps réel des flottes de centaines de robots autonomes (AMR) dans des entrepôts e-commerce à grande échelle. La méthode repose sur un réseau de neurones entraîné par apprentissage par renforcement profond (deep RL), qui décide en continu lesquels des robots doivent être priorisés à chaque instant en fonction de la formation de congestions. Une fois cette décision prise, un algorithme de planification déterministe transmet les instructions aux robots pour qu'ils se reroutent avant d'atteindre un point de blocage. Dans des simulations inspirées de layouts réels d'entrepôts e-commerce, le système a atteint un gain de débit (throughput) d'environ 25 % par rapport aux méthodes de référence actuelles. Han Zheng, doctorant au Laboratory for Information and Decision Systems (LIDS) du MIT et auteur principal, précise que même une amélioration de 2 à 3 % du throughput représente un impact économique significatif à cette échelle. L'enjeu opérationnel est concret : dans un entrepôt dense, une collision ou un embouteillage mineur peut forcer l'arrêt complet du site pendant plusieurs heures pour intervention manuelle, un coût inacceptable pour les opérateurs logistiques. Ce que prouve ce travail, c'est que le deep RL peut dépasser les performances des algorithmes conçus par des experts humains sur un problème combinatoire dynamique, là où les heuristiques classiques peinent à s'adapter aux variations de charge ou de topologie. Le système démontre aussi une capacité de généralisation : entraîné sur certains layouts, il s'adapte à des configurations différentes (nombre de robots, géométrie de l'entrepôt) sans réentraînement complet. Pour les intégrateurs et les COO industriels, cela signifie qu'un modèle unique pourrait être déployé sur plusieurs sites sans re-paramétrage lourd, réduisant le coût de mise en oeuvre. Il faut toutefois noter que les résultats présentés restent à ce stade issus de simulations, et qu'aucun déploiement réel en production n'est encore documenté dans la publication. Symbotic, partenaire industriel de ces travaux, est un acteur américain spécialisé dans l'automatisation d'entrepôts qui équipe notamment les centres de distribution de Walmart et de C&S Wholesale Grocers. La collaboration avec le groupe de Cathy Wu (professeure associée en génie civil et environnemental au MIT, membre du LIDS) s'inscrit dans une tendance plus large d'intégration de méthodes d'IA avancées dans la gestion de flottes robotiques, un domaine où l'on retrouve également des approches concurrentes chez Amazon Robotics, 6 River Systems (Shopify) et Locus Robotics. Du côté européen, des acteurs comme Exotec (France), dont le système Skypod opère dans des entrepôts Decathlon et Carrefour, s'appuient encore principalement sur des planificateurs déterministes ; ce type de travaux pourrait orienter leurs prochaines générations de software. La prochaine étape logique pour l'équipe MIT/Symbotic sera une validation en environnement réel, dont aucune timeline n'est encore annoncée publiquement.

UEExotec (France), dont le système Skypod s'appuie sur des planificateurs déterministes dans les entrepôts Decathlon et Carrefour, pourrait s'orienter vers ce type d'approches RL hybrides pour ses prochaines générations de software de gestion de flotte.

AutrePaper
1 source
La manipulation dextre des robots en discussion : épisode 152 du Robot Talk avec Rich Walker
2Robohub 

La manipulation dextre des robots en discussion : épisode 152 du Robot Talk avec Rich Walker

Shadow Robot Company, entreprise britannique spécialisée dans la manipulation dextre, est à nouveau sous les projecteurs avec la participation de son directeur Rich Walker au podcast Robot Talk (épisode 152). Rich Walker, présent dans la société bien avant sa formalisation en entreprise, a débuté en ingénierie logicielle et systèmes avant de basculer vers la direction. Il y pilote aujourd'hui les engagements de recherche, les projets de démonstration industrielle et le programme de politique publique de Shadow Robot. La dextérité robotique reste l'un des verrous techniques les plus durs du secteur : reproduire les 27 degrés de liberté de la main humaine avec la fiabilité et la force nécessaires à un usage industriel est un défi que peu d'acteurs ont résolu à l'échelle. Shadow Robot figure parmi les rares à proposer des mains robotiques commerciales pour la recherche et l'industrie, ce qui leur confère une position de référence dans les laboratoires internationaux et auprès d'intégrateurs cherchant à automatiser des tâches de manipulation fine. Walker siège également au conseil d'euRobotics, le lobby européen qui regroupe les PME du secteur, ce qui positionne Shadow Robot comme influenceur dans les politiques R&D européennes. Fondée à Londres, Shadow Robot a construit sa réputation sur des décennies de travail en manipulation humanoïde, bien avant que les humanoides complets ne dominent le débat. Dans un marché aujourd'hui concurrencé par des acteurs comme Agility Robotics, Figure ou Apptronik sur le segment des bras et effecteurs, Shadow Robot maintient un positionnement de niche à haute valeur technique. Cet épisode de podcast reste davantage un format de visibilité sectorielle qu'une annonce produit concrète.

UERich Walker siège au conseil d'euRobotics, positionnant Shadow Robot comme influenceur dans les politiques R&D européennes en manipulation dextre, mais sans annonce concrète impactant directement le marché FR/EU.

AutreActu
1 source
À venir : 10 points clés sur l'IA en ce moment
3MIT Technology Review 

À venir : 10 points clés sur l'IA en ce moment

MIT Technology Review s'apprête à lancer une toute nouvelle liste annuelle baptisée "10 Things That Matter in AI Right Now", dont la première édition sera dévoilée le 21 avril 2026. La publication sera présentée en avant-première lors de la conférence EmTech AI, organisée sur le campus du MIT, avant d'être mise en ligne le même jour. Ce projet est né d'un constat simple : lors de la compilation de la célèbre liste annuelle des "10 Breakthrough Technologies", la rédaction s'est retrouvée avec trop de candidats issus du seul domaine de l'intelligence artificielle. Trois d'entre eux ont finalement intégré l'édition 2026, les compagnons IA, la génération de code, et les centres de données hyperscale, mais de nombreuses idées prometteuses ont dû être écartées pour maintenir la diversité thématique de la sélection. Cette nouvelle liste répond à un besoin éditorial réel : l'IA occupe désormais une place si centrale dans l'actualité technologique qu'elle mérite un traitement à part entière. Contrairement à la liste des "Breakthrough Technologies", qui se concentre sur des avancées techniques précises, "10 Things That Matter in AI Right Now" a une ambition plus large. Elle entend couvrir non seulement les technologies de pointe, mais aussi les tendances, les enjeux de société, et les directions de recherche jugées déterminantes par les journalistes spécialisés de la rédaction. L'objectif affiché est de proposer aux lecteurs une boussole pour naviguer dans un paysage IA en mutation rapide, et de baliser le travail éditorial de la publication pour toute l'année 2026. La démarche éditoriale qui a présidé à cette sélection est comparable à celle utilisée pour les "Breakthrough Technologies" : les journalistes et éditeurs de l'équipe IA ont soumis des propositions, débattu collectivement, puis voté pour réduire la liste à dix entrées finales. MIT Technology Review, fondé en 1899 et historiquement adossé au MIT, s'est imposé comme l'une des références mondiales du journalisme technologique, aux côtés de publications comme The Verge ou Wired. Cette initiative reflète la pression croissante que l'IA exerce sur tous les secteurs de la société, au point que les médias spécialisés doivent réinventer leurs formats pour en rendre compte. La liste sera suivie de près tout au long de l'année, les sujets retenus alimentant directement la couverture éditoriale du magazine en 2026.

AutreActu
1 source