Aller au contenu principal

Dossier Boston Dynamics — page 4

209 articles · page 4 sur 5

Boston Dynamics, pionnier de la locomotion : Atlas électrique, Spot patrouille industrielle et inspection, partenariats Hyundai et Toyota Research Institute.

Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul
151Pandaily Chine/AsieOpinion

Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul

Le G1 d'Unitree Robotics, humanoïde de 130 cm développé par le fabricant chinois Unitree Technology, a participé à une cérémonie d'ordination bouddhiste au temple Cheonggye, dans le centre de Séoul, quelques jours avant les festivités de la naissance de Bouddha. Organisée par l'ordre Jogye, la plus grande confrérie bouddhiste de Corée du Sud, la cérémonie a conféré au robot le nom dharma "Gabi" (가비). Vêtu de robes monastiques gris-brunes, tête lissée en référence au crâne rasé, Gabi a suivi le protocole intégral réservé aux croyants : prosternations, mains jointes, défilé autour de la pagode aux côtés des moines, réception d'un chapelet de 108 perles. Interrogé par le moine officiant sur sa volonté de prendre refuge dans le bouddhisme, le robot a répondu vocalement : "Oui, je voue de prendre refuge." La brûlure symbolique des bras près d'un bâton d'encens, étape traditionnelle du rituel, a été remplacée par l'apposition d'un autocollant. Cet événement dépasse l'anecdote culturelle : il constitue une opération de validation internationale soigneusement orchestrée par Unitree, à un moment où la commercialisation des humanoïdes chinois s'accélère tandis que les restrictions d'accès au marché américain se durcissent. Pour les décideurs industriels, l'intérêt est moins théologique que technique : Unitree démontre que son G1 peut exécuter des séquences de mouvements coordonnés (marche, inclinaison, gestuelle précise) dans un environnement public non contrôlé, devant une audience particulièrement sensible à l'exactitude rituelle. La valeur probatoire reste limitée faute de métriques publiées, mais la démonstration d'acceptabilité sociale sur un marché coréen stratégique est, au minimum, réussie sur le plan médiatique. Unitree Robotics, connu pour ses robots quadrupèdes Go1 et Go2 avant de lancer le G1 en 2024, cherche à s'imposer hors de Chine dans une course humanoïde qui s'intensifie à l'échelle mondiale. Ses concurrents directs incluent Boston Dynamics (Atlas), Figure AI (Figure 03), Tesla (Optimus Gen 3) et Agility Robotics (Digit) côté américain, ainsi que Fourier Intelligence et UBTECH côté chinois. Aucun acteur français n'est impliqué dans cet épisode, bien que Wandercraft progresse en parallèle sur le segment médical. La prochaine étape logique pour Unitree serait d'annoncer des pilotes commerciaux en Corée du Sud, marché industriel prioritaire pour les intégrateurs robotiques cherchant une alternative aux plateformes occidentales.

1 source
Podcast : Colin Angle parle de la conception de robots compagnons avec Familiar Machines et Magic
152The Robot Report 

Podcast : Colin Angle parle de la conception de robots compagnons avec Familiar Machines et Magic

Colin Angle, cofondateur et ancien PDG d'iRobot, sort de la discrétion avec une nouvelle startup baptisée Familiar Machines & Magic (FM&M). La société vient de lever le voile sur son projet : développer des robots compagnons appelés "Familiars", conçus pour entretenir des relations à long terme avec leurs utilisateurs, avec une dimension d'intelligence émotionnelle embarquée. FM&M se positionne dans le segment de la "physical AI grand public". Aux côtés d'Angle, l'équipe fondatrice comprend Ira Renfrew, directrice des ressources humaines et du produit, et le Dr Chris Jones, directeur R&D, tous deux vétérans de l'industrie avec des parcours chez iRobot, Amazon et d'autres grandes plateformes technologiques. Le reste de l'équipe cumule des expertises issues de Disney Research, du MIT, de Boston Dynamics et de l'USC. Collectivement, les fondateurs revendiquent le déploiement de plus de 50 millions de robots grand public dans le monde. La société opère depuis Boston, Los Angeles et Hong Kong. Le retour de Colin Angle dans la robotique grand public constitue un signal notable pour un secteur aujourd'hui dominé par les annonces industrielles et les humanoïdes de laboratoire. FM&M mise sur un segment encore peu commercialisé : le robot domestique à vocation relationnelle, distinct du simple assistant vocal ou du robot aspirateur. L'enjeu central est de démontrer qu'une intelligence émotionnelle peut être embarquée dans un produit physique viable sur le marché de masse, hypothèse que plusieurs tentatives précédentes (Jibo, Anki Vector, Embodied Moxie) n'ont pas réussi à valider à grande échelle. Le pedigree de l'équipe apporte une crédibilité rare dans ce segment, notamment sur les questions de navigation, de robustesse produit et de capacité manufacturière. Cela dit, FM&M n'a annoncé ni produit concret, ni prix, ni calendrier de lancement : on reste strictement au stade de la sortie de stealth, sans prototype montré publiquement. Angle a quitté iRobot début 2024 après l'échec du rachat par Amazon, bloqué par la Commission européenne en janvier 2024 pour des raisons de concurrence, ce qui avait contraint l'entreprise à licencier environ 31 % de ses effectifs et Angle à démissionner. Cette rupture a libéré l'un des profils les plus expérimentés de la robotique grand public pour fonder FM&M. Dans le paysage concurrent, les robots compagnons peinent structurellement à trouver un modèle économique pérenne : Embodied a fermé ses portes, Sony perpétue Aibo sur un segment premium très niche, et des acteurs comme 1X Technologies ou Apptronik visent prioritairement l'industrie. Aucune levée de fonds n'a été communiquée publiquement par FM&M, et la formulation retenue par la société, construire "une plateforme à long terme pour la vie artificielle", suggère un horizon commercial encore lointain.

UELe blocage par la Commission européenne du rachat d'iRobot par Amazon (janvier 2024) a indirectement libéré l'équipe fondatrice pour créer FM&M, mais la société n'a annoncé aucune présence ni activité en Europe à ce stade.

Gabi, le moine robot sud-coréen, participe à une cérémonie bouddhiste et prononce ses vœux
153Interesting Engineering 

Gabi, le moine robot sud-coréen, participe à une cérémonie bouddhiste et prononce ses vœux

Le 6 mai 2026, un robot humanoïde de 130 centimètres a participé pour la première fois en Corée du Sud à une cérémonie d'initiation bouddhiste au temple Jogyesa de Séoul, à quelques jours du festival de l'anniversaire de Bouddha. Nommé Gabi, le robot porte le nom dharma signifiant "miséricorde" en coréen, un nom choisi selon le vénérable Seong Won, responsable des affaires culturelles de l'ordre Jogye, pour "diffuser la miséricorde de Bouddha dans le monde entier". Développé par la société chinoise Unitree Robotics, Gabi était vêtu de robes bouddhistes brunes traditionnelles lors du rituel "sugye", une cérémonie formelle au cours de laquelle les participants s'engagent à se vouer à Bouddha, à ses enseignements et à la communauté monastique. Dans la cour du temple, le robot a joint ses paumes en signe de prière et s'est incliné aux côtés des moines et des nonnes. Interrogé oralement par un moine sur son engagement envers les enseignements du Bouddha, Gabi a répondu à voix haute : "Oui, je me dévouerai." Un chapelet de 108 perles lui a été passé au cou, tandis qu'un autocollant a été appliqué sur son bras en remplacement de la pratique traditionnelle "yeonbi", qui consiste à appliquer de petites brûlures d'encens sur la peau des novices. Les cinq préceptes bouddhistes ont par ailleurs été réécrits spécifiquement pour l'entité non humaine, avec une contribution d'outils d'IA dont Gemini et ChatGPT, incluant notamment des règles telles que "respecter la vie et ne pas la nuire" et "obéir aux humains sans répliquer". L'événement constitue un précédent notable dans l'intégration des robots humanoïdes à des espaces culturels et spirituels institutionnalisés. Si l'acte reste symbolique, il illustre la capacité des institutions religieuses à adapter des rituels séculaires à des entités non biologiques, ouvrant un champ d'interrogation inédit sur la définition même du participant à un rite. Contrairement aux démonstrations industrielles ou aux déploiements en entrepôts logistiques, ce cas de figure montre une adoption dans un contexte à forte charge symbolique et communautaire. La réécriture des préceptes, assistée par des LLM grand public, souligne également que ces adaptations ne relèvent pas encore d'une réflexion théologique approfondie, mais d'une expérimentation exploratoire. L'ordre Jogye, qui administre les temples bouddhistes zen coréens, a commencé à envisager l'intégration de robots au festival de la Lanterne de Lotus (Yeondeunghoe) dès l'apparition des humanoïdes commerciaux, il y a environ trois ans selon Ven. Seong Won. Trois autres robots à thématique bouddhiste, baptisés Seokja, Mohee et Nissa, doivent rejoindre Gabi lors du prochain festival, prévu le 24 mai 2026. Unitree Robotics, concepteur du châssis de Gabi, est un acteur chinois du marché des humanoïdes en forte croissance, en compétition directe avec des entreprises comme Boston Dynamics, Agility Robotics ou Figure AI sur le segment des robots bipèdes à usage polyvalent. Ce déploiement dans un contexte non industriel s'éloigne du positionnement habituel d'Unitree, orienté vers la recherche et les usages professionnels, et signale une stratégie de visibilité dans des marchés culturels émergents.

Societe/EthiqueActu
1 source
Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités
154Interesting Engineering 

Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités

Le 5 mai 2026, la société chinoise AGIBOT a déployé son robot humanoïde pleine taille A2 devant The Mark Hotel à New York, en marge de l'avant-soirée du Met Gala, en partenariat avec le designer Alexander Wang. L'opération marque la première présence d'un robot humanoïde à cet événement. Sur place, l'A2 a posé face aux photographes, ajusté sa posture sur demande, porté des objets et servi des boissons à des invités. Le robot a connu un accroc mineur en restant brièvement bloqué dans un ascenseur, nécessitant l'intervention du personnel, avant de reprendre ses activités. Aucune spécification technique précise (nombre de degrés de liberté, charge utile, vitesse de cycle) n'a été communiquée à cette occasion, ce qui place cet événement davantage du côté de la démonstration marketing que du déploiement opérationnel documenté. L'intérêt industriel de la séquence tient moins à la prouesse technique qu'au contexte d'exécution : naviguer dans un environnement non structuré, dense en personnes, en lumières variables et en imprévus, reste l'un des défis centraux de la robotique humanoïde. Le fait que l'A2 ait maintenu une interaction cohérente avec le public pendant plusieurs heures - même dans un cadre scénarisé - suggère des avancées réelles dans la perception et la planification de mouvement en milieu ouvert. Cela dit, les vidéos diffusées sur les réseaux sociaux montrent des scènes sélectionnées : l'accroc à l'ascenseur a été filmé et largement partagé, rappelant que la fiabilité en autonomie complète reste à démontrer dans des conditions non contrôlées. Pour les décideurs B2B et les intégrateurs, cet événement confirme surtout qu'AGIBOT vise un positionnement grand public et culturel, en complément de ses ambitions industrielles. AGIBOT, fondée en 2023 à Shanghai, fait partie d'une vague de startups chinoises de robotique humanoïde qui ont levé des centaines de millions de dollars ces deux dernières années, aux côtés d'Unitree, Leju Robotics et Fourier Intelligence. À l'international, ses concurrents directs incluent Figure AI (A2 annoncé en 2025, déployé chez BMW), Physical Intelligence (modèle Pi-0), Agility Robotics (Digit, déployé chez Amazon) et Boston Dynamics (Atlas électrique). La collaboration avec Alexander Wang et le choix du Met Gala s'inscrivent dans une stratégie de visibilité mondiale qui rappelle l'approche de Tesla avec Optimus : associer le robot à des événements culturels pour normaliser sa présence avant le déploiement à grande échelle. AGIBOT n'a pas annoncé de pilotes industriels spécifiques ni de timeline commerciale à l'issue de cet événement.

Chine/AsieOpinion
1 source
Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque
155arXiv cs.RO 

Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque

Des chercheurs ont publié début mai 2026, via un preprint arXiv (2605.02862), un planificateur de navigation robotique baptisé SRAH (Semantic Risk-Aware Heuristic), conçu pour intégrer des principes de raisonnement issus des grands modèles de langage (LLM) dans le cadre classique de recherche de chemin A. L'algorithme encode des fonctions de coût sémantiques qui pénalisent les zones géométriquement encombrées ou identifiées comme à risque élevé, et déclenche un replanification en boucle fermée dès qu'un obstacle dynamique est détecté. Les auteurs l'ont évalué sur 200 essais randomisés dans un environnement grille 15x15 cases, avec 20% de densité d'obstacles statiques et des obstacles dynamiques stochastiques. SRAH atteint un taux de succès de 62,0%, contre 56,5% pour BFS avec replanification (soit +9,7% d'amélioration relative) et 4,0% pour une heuristique Greedy sans replanification. Une étude d'ablation sur la densité d'obstacles confirme que le façonnage sémantique des coûts améliore la navigation sur des environnements de difficulté variable. Ce travail s'inscrit dans un courant de recherche qui cherche à exploiter la capacité des LLM à encoder du raisonnement contextuel sans les déployer en inférence temps réel, ce qui réduirait la latence et les coûts de calcul embarqués. L'idée centrale, injecter une représentation sémantique du risque dans la fonction heuristique d'A, est pertinente pour les développeurs d'AMR (robots mobiles autonomes) industriels confrontés à des environnements semi-structurés changeants. Cela dit, les résultats doivent être nuancés : un taux de succès de 62% dans une grille 15x15 reste modeste pour une tâche de navigation, et la comparaison avec un Greedy sans replanification est méthodologiquement inégale. La valeur démontrée reste celle de principe, pas de déploiement à l'échelle. La navigation en environnement dynamique est un problème central depuis les travaux fondateurs sur A (Hart, Nilsson, Raphael, 1968) et les variantes D et D*-Lite des années 1990-2000. L'émergence des LLM a relancé l'intérêt pour des heuristiques fondées sur la sémantique plutôt que sur la pure géométrie, une piste explorée par des équipes comme celles de Stanford (SayCan, 2022) ou de Google DeepMind avec RT-2. Sur le segment de la navigation mobile, des acteurs comme Boston Dynamics, MiR ou Exotec (France) intègrent déjà des couches de replanification dynamique dans leurs flottes d'AMR industriels. Ce preprint n'annonce pas de produit ni de déploiement : c'est une contribution algorithmique à valider sur des benchmarks plus réalistes (ROS 2, Gazebo, environnements 3D) avant tout transfert industriel.

UECe preprint pourrait à terme informer les développeurs d'AMR industriels européens sur les heuristiques sémantiques LLM, mais les résultats restent trop préliminaires et le benchmark trop limité (grille 15x15) pour un transfert industriel immédiat.

RecherchePaper
1 source
Anticipation-VLA : résolution de tâches incarnées à long horizon par génération de sous-objectifs
156arXiv cs.RO 

Anticipation-VLA : résolution de tâches incarnées à long horizon par génération de sous-objectifs

Une équipe de chercheurs a publié le 5 mai 2026 sur arXiv (référence 2605.01772) un modèle de contrôle robotique baptisé Anticipation-VLA, conçu pour résoudre les tâches à long horizon en robotique incarnée. Le système repose sur un composant appelé Anticipation Model, qui génère de manière adaptive et récursive des sous-objectifs intermédiaires au fil de l'exécution d'une tâche. L'architecture est hiérarchique : un Unified Multimodal Model (UMM) affiné gère la planification de haut niveau en produisant ces sous-objectifs, tandis qu'une politique VLA (Vision-Language-Action) conditionnée sur ces cibles pilote l'exécution motrice à bas niveau. Les expériences couvrent des environnements simulés et des tâches robotiques réelles. Les auteurs affirment des gains de robustesse significatifs par rapport aux approches antérieures, sans toutefois publier de métriques quantitatives précises dans l'abstract, ce qui limite la comparaison directe avec l'état de l'art. Le problème adressé est central dans la robotique d'apprentissage : les modèles VLA accumulent des erreurs sur les tâches longues, chaque décision imparfaite amplifiant les erreurs suivantes. Les approches existantes décomposent les tâches en sous-tâches de granularité fixe, ce qui les rend rigides face aux variations de complexité des états d'exécution. La contribution clé d'Anticipation-VLA est d'ajuster dynamiquement les sous-objectifs en fonction de l'évolution réelle de la situation, une avancée dans le contrôle hiérarchique adaptatif. Pour les intégrateurs et décideurs B2B, ce type de système ouvre la voie à des robots capables d'exécuter des séquences complexes en environnement industriel sans supervision constante, un verrou majeur dans le déploiement à grande échelle des bras manipulateurs. Le domaine des VLA est en pleine effervescence depuis la publication de RT-2 (Google DeepMind, 2023), puis d'OpenVLA, Pi-0 (Physical Intelligence) et GR00T N2 (NVIDIA). La recherche sur la planification hiérarchique se heurte systématiquement au "demo-reality gap" : les résultats en simulation ne se transfèrent pas toujours au monde réel. Anticipation-VLA revendique une validation sur tâches réelles, signal positif, bien que l'absence de benchmarks standardisés tels que RLBench ou LIBERO dans la publication rende difficile le positionnement précis face à la concurrence. Les prochaines étapes probables incluent des évaluations comparatives sur ces benchmarks et une extension vers des plateformes mobiles manipulatrices, segment où des acteurs comme Physical Intelligence et Boston Dynamics intensifient leurs travaux.

RechercheOpinion
1 source
Attention spatiale stéréo multi-étapes pour manipulation mobile en temps réel sous variations d'échelle et perturbations
157arXiv cs.RO 

Attention spatiale stéréo multi-étapes pour manipulation mobile en temps réel sous variations d'échelle et perturbations

Des chercheurs ont publié en mai 2026 un préprint (arXiv:2605.00471) présentant une méthode d'apprentissage prédictif profond basée sur une attention spatiale stéréo multi-étapes pour la manipulation mobile en temps réel. L'approche extrait des points d'attention spatiale pertinents à partir d'images stéréo, les intègre avec les états du robot via une architecture récurrente hiérarchique, et génère des actions en boucle fermée. Le système a été évalué sur quatre tâches de manipulation mobile en conditions réelles avec un manipulateur mobile : placement d'objets rigides, manipulation d'objets articulés, et interaction avec des objets déformables. Les expériences se sont déroulées sous positions initiales aléatoires et perturbations visuelles contrôlées. Les auteurs rapportent des taux de succès et une robustesse supérieurs aux baselines d'imitation learning et aux modèles vision-langage-action (VLA) dans des conditions de contrôle identiques. À noter : l'abstract ne fournit pas de chiffres quantitatifs précis (taux de succès, fréquence de contrôle, payload), ce qui limite l'évaluation indépendante des gains annoncés. Le problème central adressé est rarement traité explicitement dans la littérature VLA : quand un robot se déplace de manière autonome, les changements continus de point de vue caméra provoquent des variations d'échelle visuelle significatives sur les objets cibles, ce qui dégrade la génération de mouvements fondée sur la vision. Les modèles VLA actuels, entraînés sur des données à échelle fixe ou simulées, peinent à compenser ce phénomène en déploiement réel. L'architecture proposée, en combinant attention stéréo structurée et modélisation temporelle prédictive, offre une piste crédible pour combler ce fossé sim-to-real sur des plateformes mobiles, une classe de robots particulièrement exposée à ce problème par rapport aux bras fixes. Ce travail s'inscrit dans un contexte de forte compétition sur la manipulation généraliste : Boston Dynamics, Physical Intelligence avec Pi-0, NVIDIA avec GR00T N2, et Figure avec ses plateformes humanoïdes investissent massivement dans des politiques VLA robustes au monde réel. La manipulation mobile reste un défi distinct de la manipulation fixe, car elle cumule les difficultés de navigation et de préhension dans des environnements non structurés. En l'absence d'affiliation institutionnelle dans le préprint et de code ou de vidéos publiés, il est prématuré d'évaluer la reproductibilité de l'approche. Les prochaines étapes naturelles seraient une publication sur benchmark standardisé (Open-X Embodiment, LIBERO) et un test sur plateformes commerciales comme les AMR équipés de bras (MiR, Clearpath, ou des acteurs européens comme Niryo ou Wandercraft sur des variantes mobiles).

RechercheOpinion
1 source
L'IA physique est la véritable révolution de l'industrie manufacturière
158Robotics Business Review 

L'IA physique est la véritable révolution de l'industrie manufacturière

Pour Steve Ricketts, vice-président du développement commercial chez Fictiv, 2026 marque le basculement de l'IA conversationnelle vers ce qu'il nomme l'"IA physique" : la convergence entre réseaux de neurones et systèmes mécaniques embarqués. Sur le terrain, cette transition se manifeste dans trois segments concrets : les robots mobiles autonomes (AMR) capables d'interagir avec les rayonnages en bout de ligne, les cobots équipés de perception haptique pour l'assemblage électronique aux côtés d'opérateurs humains, et les bras robotisés dotés de vision IA pour le contrôle qualité, capables selon Fictiv de détecter des microfissures dans des aubes de turbines invisibles à l'oeil nu. L'article ne fournit pas de chiffres de déploiement précis et s'appuie sur des cas génériques. Sur le plan industriel, MISUMI, distributeur japonais de composants coté en bourse, a acquis Fictiv, marketplace de fabrication à la demande (CNC, injection, impression 3D). La combinaison des deux a permis à un client entreprise non nommé de rapatrier sa production aux États-Unis, en consolidant flux matière et production multi-régions pour accélérer le ramp-up. Ce qui distingue cette vague des précédentes est le raccourcissement de la boucle de développement via les pipelines "sim-to-real" : des agents IA s'entraînent dans des jumeaux numériques photoréalistes, exécutant des millions d'itérations en quelques heures avant tout déploiement physique. Cette approche permet de traiter des tâches à haute variabilité, comme le tri de ferraille non structurée ou la navigation en couloir hospitalier, jusqu'ici impossibles à automatiser de façon fiable. Pour les intégrateurs et les décideurs industriels, le signal opérationnel est double : le rôle du développeur bascule de "programmeur" à "entraîneur", et le critère de sélection des plateformes se déplace vers la capacité à absorber des feedbacks terrain en production réelle. Le vrai goulot d'étranglement identifié pour 2026 n'est plus algorithmique mais physique : la "scaling wall", soit la capacité à fabriquer des milliers d'unités de hardware en qualité constante dans une supply chain mondiale sous tension. Il faut noter que cet article est signé par le VP de Fictiv lui-même, lui conférant une tonalité promotionnelle assumée plutôt qu'analytique indépendante. Dans le paysage concurrentiel, Amazon déploie déjà des humanoïdes Digit d'Agility Robotics dans ses entrepôts, tandis que Boston Dynamics, Figure et 1X intensifient leurs pipelines commerciaux. Du côté européen, des acteurs comme Enchanted Tools ou Wandercraft avancent sur des niches spécifiques (robotique hospitalière, exosquelettes), mais restent absents de cette analyse orientée marché nord-américain. Le prochain jalon annoncé est la conférence Robotics Summit & Expo de Boston, en mai 2026, où Ricketts interviendra sur le thème "Emergent Robotics : AI at the Edge of Hardware Innovation".

IA physiqueOpinion
1 source
Optimisation bi-niveaux pour la planification du mouvement et des contacts dans les robots à jambes assistés par corde
159arXiv cs.RO 

Optimisation bi-niveaux pour la planification du mouvement et des contacts dans les robots à jambes assistés par corde

Des chercheurs ont publié sur arXiv (2604.26910) un framework de planification pour robots à pattes assistés par câble, capables de grimper des surfaces verticales. Le système repose sur une optimisation bi-niveau qui résout un problème mixte entier-continu : au niveau supérieur, la méthode Cross-Entropy sélectionne les régions de terrain viables pour l'appui des membres ; au niveau inférieur, une optimisation non linéaire à gradient calcule les mouvements dynamiquement réalisables, en optimisant simultanément les tensions du câble, les forces exercées par les pattes, et la localisation précise des points de contact. L'approche est validée sur une plateforme expérimentale inédite baptisée ALPINE, testée sur plusieurs configurations de terrain difficiles. L'intérêt principal réside dans la décomposition du problème de planification de contact sur surfaces verticales, longtemps considéré comme computationnellement intractable pour les robots à pattes. Le schéma bi-niveau sépare la sélection discrète des zones d'appui de l'optimisation continue des forces et trajectoires, rendant le problème soluble en temps raisonnable. Pour les concepteurs de robots d'inspection d'infrastructure, de maintenance en hauteur ou de recherche en milieu confiné vertical, cette architecture offre un cadre de planification là où les AMR à roues sont inopérants. La robotique grimpante reste un domaine de niche en progression. Les approches antérieures reposaient principalement sur des ventouses, des griffes ou des systèmes d'escalade fortement contraints géométriquement. L'hybridation câble-pattes ouvre une voie potentiellement plus adaptable aux surfaces irrégulières. ETH Zurich via ANYbotics, le MIT et Boston Dynamics ont exploré la locomotion en terrain difficile, mais sans assistance câble active intégrée dans la boucle de planification. ALPINE constitue donc une contribution expérimentale distincte, même si le papier reste un preprint sans validation industrielle ni déploiement annoncé.

RecherchePaper
1 source
Liaisons de jambes robotiques extensibles et rétractables dynamiquement pour l'exécution de tâches multiples en recherche et sauvetage
160arXiv cs.RO 

Liaisons de jambes robotiques extensibles et rétractables dynamiquement pour l'exécution de tâches multiples en recherche et sauvetage

Des chercheurs ont publié sur arXiv (identifiant 2511.10816, révision 3, avril 2026) les travaux autour d'un nouveau concept de jambe robotique à géométrie variable, baptisé DERRL (Dynamically Extensible and Retractable Robotic Leg Linkage). Le mécanisme repose sur un cinquième bras articulé (five-bar linkage) dont la géométrie peut être reconfigurée à la volée, basculant entre deux modes : une configuration "avantagée en hauteur" pour franchir rapidement des obstacles, et une configuration "avantagée en force" pour exercer des efforts élevés lors des phases d'extraction de victimes. Les expériences sur banc de test ont porté sur trois métriques principales : la longueur de foulée, l'amplitude de force en sortie, et la stabilité dynamique selon les différentes géométries de bras. Le point critique ici est que la robotique SAR (Search and Rescue) souffre d'un problème structurel non résolu : les robots à pattes excellent dans la traversée de terrain accidenté mais peinent à générer des forces d'extraction contrôlées, là où les transmissions à roues font l'inverse. Aucune plateforme existante ne réunit aujourd'hui ces deux capacités de façon satisfaisante. Ce travail propose une voie mécanique plutôt qu'algorithmique pour combler ce fossé, ce qui est notable : la transformation entre modes s'effectue par reconfiguration géométrique, sans changer l'actionneur. C'est un signal intéressant pour les intégrateurs industriels, car cela suggère une robustesse matérielle supérieure aux approches purement contrôle-logiciel. La recherche en robotique SAR connaît une dynamique soutenue depuis les années 2010, portée par des catastrophes comme Fukushima ou les séismes au Maroc et en Turquie. Des plateformes comme le Spot de Boston Dynamics ou l'ANYmal de ANYbotics (ETH Zürich) sont ponctuellement engagées dans ce contexte, mais sans capacité d'extraction lourde intégrée. Ce travail est purement académique à ce stade : aucun prototype complet, aucune démonstration en environnement réel, aucun partenaire industriel annoncé. La prochaine étape logique serait une intégration sur châssis quadrupède et un test en environnement dégradé simulé, avant toute validation opérationnelle.

RecherchePaper
1 source
Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain
161arXiv cs.RO 

Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain

Des chercheurs ont publié sur arXiv (référence 2604.26839) un cadre de navigation sociale en extérieur baptisé "Walk with Me", conçu pour assister des humains dans des environnements ouverts à partir d'instructions en langage naturel. Le système fonctionne sans carte préétablie (map-free) : il s'appuie uniquement sur le GPS et des points d'intérêt légers issus d'une API cartographique publique pour identifier les destinations sémantiques et proposer des waypoints. L'architecture est hiérarchique à deux niveaux : un modèle vision-langage (VLM) de haut niveau traduit les intentions abstraites en séquences de waypoints, tandis qu'un modèle vision-langage-action (VLA) de bas niveau exécute la navigation au sol en temps réel. Lorsque des situations complexes surgissent, comme des traversées bondées ou des zones à risque, le système bascule automatiquement vers le raisonnement de sécurité du VLM, pouvant imposer un comportement "stop-and-wait" explicite. L'apport principal est l'élimination de la dépendance aux cartes HD préconstruites, qui représentent un coût d'infrastructure significatif pour tout déploiement de robots d'assistance en milieu urbain ou semi-public. Les approches classiques basées sur l'apprentissage restent majoritairement confinées aux intérieurs et aux trajets courts ; "Walk with Me" vise explicitement à combler ce fossé pour des scénarios extérieurs à longue portée. Le mécanisme de routage adaptatif, qui distingue les segments routiniers délégués au VLA des situations complexes renvoyées au VLM, constitue une piste crédible pour économiser les ressources de calcul tout en maintenant la conformité sociale. À noter cependant : le papier ne publie pas de métriques quantifiées sur des scénarios réels, ce qui rend difficile l'évaluation du reality gap et de la robustesse hors laboratoire. Cette recherche s'inscrit dans une effervescence autour des VLA pour la navigation sociale, aux côtés de travaux comme NaviLLM ou les systèmes piétons de Boston Dynamics Research. La navigation extérieure à longue portée reste un verrou non résolu pour les robots humanoïdes commerciaux actuels, Figure AI (Figure 03), Agility Robotics (Digit), Sanctuary AI, qui opèrent encore majoritairement dans des environnements contrôlés et cartographiés. En Europe, Enchanted Tools et Wandercraft travaillent sur des assistants mobiles, mais dans des contextes d'intérieur structuré. Aucun partenaire industriel ni calendrier de déploiement n'est mentionné dans cette publication arXiv, la classant fermement dans la catégorie recherche académique. Les prochaines étapes attendues incluent une validation sur des benchmarks standardisés de navigation sociale et des tests urbains documentés en conditions non contrôlées.

RechercheOpinion
1 source
Melody : un robot humanoïde maîtrise 39 degrés de liberté pour une présence quasi humaine
162Interesting Engineering 

Melody : un robot humanoïde maîtrise 39 degrés de liberté pour une présence quasi humaine

Realbotix, entreprise canadienne spécialisée dans la robotique humanoïde, déploie son robot Melody dans un rôle d'accueil lors de la conférence Bitcoin 2026 au Venetian Resort de Las Vegas, du 27 au 29 avril 2026. Melody appartient à la gamme M-Series, une plateforme modulaire à corps entier dotée de 39 degrés de liberté concentrés dans la partie supérieure du corps, la partie inférieure restant fixe. Le robot est disponible en configurations masculine, féminine ou sur-mesure, et peut être installé en position assise, debout ou de bureau. Alimenté par prise électrique standard sans contrainte de batterie, il tourne en continu sur une journée complète. Sur site, Melody accueille les participants, les aide à localiser les stands et répond aux questions générales grâce à un système d'IA conversationnelle propriétaire développé par Realbotix. La plateforme est proposée à partir de 95 000 dollars, ce qui la positionne clairement dans le segment haut de gamme des interfaces physiques d'accueil. Ce qui est notable ici n'est pas tant la prouesse technique brute que le positionnement commercial : Realbotix cible explicitement les environnements à fort trafic humain où les bornes interactives classiques montrent leurs limites en termes d'engagement. Avec 39 DDL en partie supérieure, Melody peut produire des expressions faciales, des gestes et un contact visuel suffisamment fluides pour réduire l'effet "vallée dérangeante" qui a longtemps freiné l'adoption des robots humanoïdes en contexte public. La modularité des visages et panneaux de carrosserie ouvre la voie à des déploiements multi-marques ou multi-contextes sans changer de plateforme matérielle. Pour un intégrateur ou un décideur B2B, le modèle économique est celui d'un remplacement de kiosque à ROI mesurable sur la qualité d'interaction, non sur la productivité opérationnelle. Il faut cependant noter que cette présentation à Las Vegas reste une démonstration publique contrôlée, pas un déploiement commercial à grande échelle, et qu'aucune donnée de performance terrain n'a été publiée à ce stade. Realbotix opère dans un segment en pleine ébullition, celui des humanoïdes orientés "présence" plutôt que manipulation industrielle. La startup chinoise AheadForm pousse des concepts similaires avec ses séries Origin F1 et Elf, combinant IA auto-supervisée et mouvements bioniques avec synchronisation labiale précise. Ces acteurs se distinguent des approches Boston Dynamics ou Figure AI, qui visent la manutention et la logistique. Andrew Kiguel, PDG de Realbotix, positionne explicitement la M-Series comme une "interface physique pour l'IA" dans les secteurs de service, une thèse que plusieurs grandes chaînes hôtelières et aéroports testent discrètement depuis 2024. La suite logique serait des pilotes dans des environnements comme les hôtels, les banques ou les aéroports, mais Realbotix n'a pas annoncé de partenariats commerciaux formels au-delà de cette démonstration.

HumanoïdesOpinion
1 source
RPG : commutation robuste de politiques pour des transitions fluides entre compétences en combat humanoïde
163arXiv cs.RO 

RPG : commutation robuste de politiques pour des transitions fluides entre compétences en combat humanoïde

Une équipe de chercheurs a publié le 21 avril 2026 sur arXiv (2604.21355) un framework baptisé RPG (Robust Policy Gating), conçu pour permettre à des robots humanoïdes d'enchaîner plusieurs compétences de combat dynamique sans instabilité. L'approche repose sur une politique unifiée entraînée avec deux mécanismes de randomisation : la randomisation des transitions de mouvement, qui expose la politique à des états initiaux et terminaux variés entre compétences, et la randomisation temporelle, qui rend l'agent robuste aux coupures imprévises dans la séquence de mouvements. La pipeline de contrôle intègre la locomotion (marche, course) avec les compétences de combat, permettant théoriquement des séquences de durée arbitraire. Le système a été validé en simulation extensive, puis déployé sur le robot humanoïde Unitree G1, la plateforme à 23 DDL du constructeur chinois Unitree Robotics. Le problème central que RPG adresse est connu dans le domaine sous le nom de "skill transition gap" : lorsqu'un agent bascule d'une politique spécialisée à une autre, les états terminaux de la première ne correspondent pas aux états initiaux supposés de la seconde, produisant des comportements hors domaine, des chutes ou des mouvements saccadés. Les approches concurrentes utilisent soit une commutation entre politiques mono-compétence, soit une politique généraliste qui imite des motion clips de référence -- les deux souffrent de ce décalage. RPG propose une solution d'entraînement plutôt que d'architecture, ce qui est notable : la robustesse aux transitions est injectée pendant la phase d'apprentissage, pas via un mécanisme de gating à l'inférence. L'absence de métriques quantitatives dans la publication (temps de cycle, taux de chute, nombre de transitions testées) limite cependant la comparaison directe avec d'autres travaux. RPG s'inscrit dans une vague active de recherche sur le contrôle corps entier des humanoïdes pour des tâches hautement dynamiques, un domaine où les laboratoires UCB, CMU et Stanford publient régulièrement depuis 2023. L'utilisation du G1 comme plateforme de validation est cohérente avec sa popularité croissante en recherche académique, notamment grâce à son coût inférieur à celui des plateformes concurrentes (Boston Dynamics Atlas, Agility Digit). Sur le plan commercial, des acteurs comme Figure AI, 1X Technologies ou Apptronik ciblent des tâches répétitives en entrepôt plutôt que le combat, mais les techniques de transition de compétences développées ici sont directement transposables aux scénarios industriels nécessitant des enchaînements fluides de manipulation et de locomotion. La prochaine étape naturelle serait une évaluation quantitative en conditions adversariales réelles, ainsi qu'un transfert vers des tâches moins "spectaculaires" mais plus proches du déploiement B2B.

RecherchePaper
1 source
Unitree Robotics présente un robot humanoïde à roues et jambes capable de patiner et d'effectuer des figures acrobatiques
164Pandaily 

Unitree Robotics présente un robot humanoïde à roues et jambes capable de patiner et d'effectuer des figures acrobatiques

Le 23 avril 2026, Unitree Robotics a diffusé une vidéo présentant les capacités de son robot humanoïde hybride à roues et jambes, la plateforme G1-D. Les séquences montrent l'engin enchaîner patinage sur glace, roller, rotations à 360 degrés, pirouettes sur un appui et saltos avant, en alternant de manière autonome entre modes roues et bipède selon les exigences du terrain. L'entreprise positionne cette architecture comme un vecteur de polyvalence pour les robots à usage général, adaptables à des environnements variés sans changement de plateforme matérielle. Aucune métrique technique indépendante (charge utile, degrés de liberté, temps de cycle opérationnel) n'accompagne la publication : il s'agit d'une vidéo promotionnelle dont les conditions précises de tournage restent inconnues. Le contrôle multimodal illustré représente un défi technique réel : la transition fluide entre locomotion roues et locomotion pédestre exige des politiques de contrôle capables de gérer des dynamiques radicalement différentes, généralement entraînées par apprentissage par renforcement. Pour les intégrateurs industriels, la question centrale est celle de la polyvalence opérationnelle : une architecture hybride permet-elle de couvrir plusieurs cas d'usage (logistique en entrepôt et manutention debout) sur un seul déploiement matériel, ou ajoute-t-elle de la complexité sans avantage net ? La réponse reste ouverte tant qu'aucun pilote industriel documenté ne valide les performances hors conditions contrôlées. Unitree Robotics, fondée en 2016 à Hangzhou, s'est imposée avec le Go1, le B2 et l'humanoïde H1 comme l'un des fabricants de robots les plus prolifiques du marché semi-industriel. La plateforme G1-D intègre une solution complète de collecte de données et d'entraînement de modèles pour accélérer l'optimisation des algorithmes de locomotion. Sur le segment humanoïde, la concurrence directe de Figure, Boston Dynamics et Agility Robotics reste sur des architectures entièrement bipèdes, ce qui fait de l'hybridation roues-jambes un pari différenciant mais encore non validé en production. En France et en Europe, aucun acteur ne travaille sur cette architecture spécifique à échelle industrielle, laissant le terrain largement ouvert à l'offre asiatique.

UEAucun acteur européen ne développe d'architecture hybride roues-jambes à échelle industrielle, laissant un segment potentiel de marché ouvert à l'offre asiatique si la plateforme G1-D se valide hors conditions contrôlées.

HumanoïdesOpinion
1 source
Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle
165arXiv cs.RO 

Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle

Des chercheurs ont publié sur arXiv (référence 2604.20686) un cadre méthodologique permettant d'optimiser les proportions des phalanges dans les mains robotiques à cinq doigts, sans avoir à définir au préalable des objets précis ou des tâches de manipulation. Le système repose sur quatre métriques d'évaluation : la manipulabilité globale, le volume de l'espace de travail atteignable, le volume d'espace de travail partagé entre les doigts, et la sensibilité des extrémités. L'espace de travail est discrétisé via une représentation en voxels, et les mouvements articulaires sont découpés à intervalles uniformes pour permettre une évaluation systématique. L'optimisation s'applique séparément au pouce et aux quatre autres doigts, en excluant les combinaisons de conception qui ne génèrent pas de chevauchement d'espace de travail entre les doigts. Ce travail répond à un problème concret du développement robotique : jusqu'ici, évaluer quantitativement l'impact des ratios de longueur des phalanges sur la dextérité nécessitait de simuler des scénarios de manipulation spécifiques, ce qui rendait la phase de conception longue et peu généralisable. En proposant une fonction objectif pondérée applicable dès la phase de conception cinématique, les auteurs offrent aux ingénieurs un outil de décision précoce, indépendant des cas d'usage. Les résultats montrent que chaque phalange ne contribue pas de manière égale à la dextérité globale, et que le choix des coefficients de pondération ne conduit pas mécaniquement à maximiser chaque indicateur individuellement, en raison de la distribution non uniforme des mesures dans l'espace de conception. La conception des mains robotiques multi-doigts constitue l'un des défis persistants de la robotique humanoïde et de la manipulation industrielle. Des acteurs comme Boston Dynamics, Shadow Robot ou Agility Robotics investissent massivement dans la dextérité des effecteurs, qui conditionne directement l'utilisabilité des robots dans des environnements non structurés. Ce cadre méthodologique, en analysant systématiquement les compromis entre accessibilité, dextérité et contrôlabilité, pourrait accélérer les cycles de prototypage et s'imposer comme référence dans la conception cinématique des mains robotiques de nouvelle génération.

HumanoïdesPaper
1 source
X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique
166Pandaily 

X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique

La startup chinoise X Square Robot a présenté le 21 avril 2026 WALL-B, qu'elle décrit comme le premier modèle fondamental d'IA incarnée au monde basé sur une architecture World Unified Model (WUM). Contrairement aux approches traditionnelles de type Vision-Language-Action (VLA), WALL-B fusionne nativement la vision, le langage, le mouvement et la prédiction physique dans un entraînement conjoint. Le modèle repose sur trois capacités clés : la multimodalité native, la compréhension de la dynamique du monde physique, et la capacité d'auto-amélioration après un échec. Pour construire ce modèle, X Square Robot a utilisé une combinaison de données expérimentales et de scénarios réels, incluant des données collectées dans des centaines de foyers. La société a annoncé qu'en l'espace de 35 jours, des robots équipés de WALL-B et d'un hardware amélioré seront déployés dans de vraies maisons, avec un recrutement d'utilisateurs déjà lancé. Des détails techniques supplémentaires seront dévoilés le 27 avril lors de la première conférence sur les applications de l'IA du Guangdong. Ce lancement marque une rupture significative dans la robotique domestique. Les architectures VLA classiques souffrent de pertes d'information entre leurs modules et peinent à modéliser la physique du monde réel, deux limitations directement adressées par WALL-B. La capacité d'auto-évolution après l'échec est particulièrement notable : elle permettrait à un robot de s'adapter aux imprévus du quotidien sans intervention humaine, ce qui est le principal obstacle à la commercialisation grand public de robots domestiques. Pour les utilisateurs, cela ouvre la voie à des assistants capables de naviguer dans l'environnement complexe et imprévisible d'un foyer réel. La Chine investit massivement dans la robotique humanoïde et incarnée, avec une concurrence intense entre startups locales et géants comme Huawei ou Xiaomi. X Square Robot s'inscrit dans cette dynamique en ciblant explicitement le marché résidentiel, là où des acteurs comme Figure AI ou Boston Dynamics se concentrent davantage sur l'industrie. Pour lever les freins liés à la vie privée, la société a intégré une anonymisation visuelle locale, une autorisation explicite des utilisateurs et des restrictions d'usage strictes. La prochaine étape sera le déploiement en conditions réelles dans des foyers, un test grandeur nature qui déterminera si l'approche WUM tient ses promesses face aux exigences du monde domestique.

HumanoïdesActu
1 source
HALO : locomotion hybride auto-encodée avec dynamiques latentes apprises, cartes de Poincaré et régions d'attraction
167arXiv cs.RO 

HALO : locomotion hybride auto-encodée avec dynamiques latentes apprises, cartes de Poincaré et régions d'attraction

HALO (Hybrid Auto-encoded Locomotion with Learned Latent Dynamics) est un framework académique publié en avril 2026 sur arXiv (2604.18887) autour d'un problème central de la robotique bipedale : construire des modèles d'ordre réduit qui représentent fidèlement la dynamique hybride des robots à jambes tout en offrant des garanties formelles de stabilité. L'approche combine un autoencodeur neuronal, qui apprend une représentation latente basse dimension depuis des trajectoires de locomotion périodique, avec une carte de Poincaré apprise dans cet espace latent. Cette carte modélise la dynamique pas-à-pas du cycle de marche ou de saut et permet de construire des régions d'attraction (RoA) via une analyse de Lyapunov, projetables ensuite vers l'espace d'état complet via le décodeur. Les validations sont conduites en simulation sur un robot sauteur et un humanoïde corps entier. Ce travail tente de combler un fossé persistant entre deux familles de méthodes. Les modèles analytiques classiques comme le Linear Inverted Pendulum (LIP) ou le Spring-Loaded Inverted Pendulum (SLIP) offrent des garanties de stabilité rigoureuses, mais approximent mal la dynamique réelle d'un humanoïde haute dimensionnalité. Les méthodes data-driven récentes capturent mieux la physique du système, mais sans transfert formel des propriétés de stabilité au système complet. HALO propose une voie hybride : apprendre la structure de l'espace d'état depuis les données, puis y appliquer les outils classiques de l'automatique. Pour les développeurs de contrôleurs de locomotion, borner formellement des zones de stabilité sans modèle analytique exact constitue un apport potentiellement significatif. L'approche s'ancre dans une littérature établie sur les systèmes dynamiques hybrides à contacts discontinus, notamment les hybrid zero dynamics et les Control Barrier Functions (CBF) développés par Aaron Ames à Caltech. La carte de Poincaré, outil classique pour analyser les orbites périodiques, est ici apprise depuis les données plutôt que dérivée analytiquement. La limite principale reste l'absence totale de validation sur robot physique : les résultats sont exclusivement en simulation, et le gap sim-to-real n'est pas adressé. Les acteurs industriels comme Boston Dynamics, Agility Robotics ou Figure, qui déploient des humanoïdes en environnement réel, resteront prudents avant d'intégrer des RoA apprises sans expérimentation hardware. Les suites logiques impliqueraient des tests sur plateforme physique et une intégration dans des pipelines MPC ou des frameworks comme Drake.

RecherchePaper
1 source
Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot
168arXiv cs.RO 

Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot

Une équipe de chercheurs a développé SNOOPIE (Snoopie Pacerbot), un robot quadrupède autonome conçu pour servir d'entraîneur personnel lors de séances d'interval training. Publié sur arXiv (2604.18331), le travail porte sur une tâche spécifique : guider des coureurs à maintenir un rythme précis sur des intervalles répétés, une discipline où la régularité est critique. Dans les expériences utilisateurs menées, les participants équipés du robot ont respecté leur plan de cadence avec 60,6 % de précision supplémentaire par rapport à un groupe utilisant une Apple Watch, et ont maintenu une vitesse de course 45,9 % plus régulière d'un intervalle à l'autre. Sur le plan subjectif, la préférence pour le robot sur le wearable est nette : facilité d'utilisation (+56,7 %), plaisir de l'interaction (+60,6 %), sentiment d'être bien accompagné (+39,1 %). Ces résultats soulèvent une question concrète pour les intégrateurs et les concepteurs de systèmes d'entraînement connecté : la présence physique incarnée d'un robot apporte-t-elle une valeur ajoutée mesurable par rapport à un écran ou un capteur poignet ? L'étude suggère que oui, au moins dans ce cas précis. Le robot peut ajuster son allure en temps réel, maintenir une distance constante avec le coureur, et fournir un retour visuel et cinétique que ni une montre ni une application mobile ne peuvent reproduire. Cela conforte l'hypothèse que l'embodiment robotique n'est pas qu'un argument marketing dans les contextes d'interaction physique prolongée : il modifie effectivement le comportement de l'utilisateur. Ces données restent néanmoins issues d'une étude de laboratoire à effectif limité, et les conditions réelles (terrain variable, foule, météo) n'ont pas été testées. Les robots quadrupèdes agiles comme ceux de Boston Dynamics (Spot) ou les plateformes issues des travaux de l'ETH Zurich et de CMU ont ouvert la voie à une nouvelle génération de robots capables de se déplacer de manière fiable dans des environnements non structurés. SNOOPIE s'inscrit dans cette lignée en poussant l'usage vers une application grand public et de bien-être, un territoire encore peu exploré par l'industrie. Les concurrents directs dans le créneau coaching physique robotisé sont quasi inexistants à ce stade commercial, mais des entreprises comme Agility Robotics ou Unitree pourraient théoriquement adapter leurs plateformes à ce type d'usage. Les suites annoncées par l'équipe incluent des tests en conditions extérieures et l'intégration de retours verbaux, avec l'ambition de transformer SNOOPIE en dispositif d'entraînement personnalisé adaptatif à plus long terme.

RecherchePaper
1 source
Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI
169Pandaily 

Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI

Maniformer, startup chinoise spécialisée dans l'infrastructure de données pour l'IA physique, a officiellement lancé sa plateforme de services de données en un seul guichet, accompagnée de la gamme matérielle MEgo et du système de gouvernance MEgo Engine. La gamme MEgo comprend trois composants : le MEgo Gripper pour la capture de données de manipulation robotique, le MEgo View, un dispositif de collecte portable à tête montée, et le MEgo Engine pour le traitement et la gouvernance des données. Ces outils affichent une précision millimétrique, une synchronisation sub-milliseconde et une perception panoramique supérieure à 300 degrés. Le système est nativement compatible avec le robot G2 Air, garantissant la cohérence entre environnements simulés et réels. Selon Yao Maoqing, président-directeur général, l'entreprise vise une capacité de production de dizaines de millions d'heures de données d'ici 2026, puis des dizaines de milliards d'heures d'ici 2030. Le problème que Maniformer cherche à résoudre est structurel : les données d'interaction physique réelle disponibles pour l'IA incarnée représentent moins de 1/20 000 de ce qui existe pour les grands modèles de langage. Ce déficit, combiné à l'absence de standards, à des problèmes de qualité hétérogène et à des inadéquations entre offre et demande, freine concrètement la commercialisation des robots autonomes. En proposant une infrastructure full-stack couvrant la télé-opération réelle, la collecte sans robot dédié et la génération synthétique par simulation, Maniformer cherche à décorréler la production de données de la disponibilité des plateformes robotiques elles-mêmes, une approche qui, si elle tient ses promesses, pourrait accélérer significativement le cycle sim-to-real pour les intégrateurs et les équipes R&D. L'analogie revendiquée avec l'électricité ou l'eau comme utilities est ambitieuse ; elle reste à valider à l'échelle industrielle. L'entreprise s'inscrit dans un contexte de course mondiale aux données d'entraînement pour robots humanoïdes et manipulateurs, où des acteurs comme Physical Intelligence (Pi-0), Boston Dynamics, Figure AI ou Unitree investissent massivement dans leurs propres pipelines de données propriétaires. La stratégie de Maniformer est différente : se positionner en fournisseur tiers d'infrastructure, à la manière d'un AWS pour la donnée physique. L'initiative "Hive" annoncée vise à fédérer des partenaires mondiaux pour co-construire des standards sectoriels, une démarche de standardisation qui, si elle aboutit, pourrait bénéficier à l'ensemble de l'écosystème, y compris aux acteurs européens comme Enchanted Tools ou Wandercraft qui peinent à constituer des datasets suffisants. La prochaine étape annoncée est le déploiement d'un réseau global de collecte de données, sans calendrier précis communiqué au-delà de l'horizon 2026.

UESi l'initiative 'Hive' de standardisation aboutit, les acteurs européens comme Enchanted Tools ou Wandercraft pourraient bénéficier d'une infrastructure de données partagée pour accélérer leurs pipelines sim-to-real.

Chine/AsieActu
1 source
Alibaba lance son premier robot incarné via Amap, en débutant par un chien robot
170TechNode 

Alibaba lance son premier robot incarné via Amap, en débutant par un chien robot

La filiale d'Alibaba Amap (connue aussi sous le nom Gaode, leader chinois de la cartographie et navigation mobile) s'apprête à commercialiser son premier produit robotique : un robot quadrupède. Selon des sources internes citées par le média chinois IThome, il s'agirait du premier robot physique jamais lancé par le groupe Alibaba. L'annonce reste pour l'instant au stade de fuite interne, sans date de sortie ni spécifications techniques publiées, payload, degrés de liberté et prix sont inconnus à ce stade. Ce mouvement indique qu'Alibaba étend sa stratégie IA au-delà du cloud et des LLM vers l'intelligence incarnée, un pivot observé chez plusieurs géants technologiques asiatiques. L'équipe d'intelligence embodied d'Amap travaillerait également sur des humanoïdes, et aurait constitué ce qu'elle décrit comme le plus grand moteur de données de navigation embodied de l'industrie, une affirmation difficile à vérifier sans audit indépendant. La maîtrise de la navigation longue séquence (long-horizon tasks) est effectivement un verrou technique clé pour les robots opérant en environnement ouvert. Amap dispose d'un atout structurel rare : une base de données cartographiques et de trajectoires humaines massive, issue de ses centaines de millions d'utilisateurs actifs en Chine, potentiellement exploitable pour entraîner des politiques de navigation robot. Dans un marché quadrupède dominé par Unitree et Boston Dynamics, Alibaba arrive tard mais avec des ressources data considérables. Les concurrents chinois comme Unitree (G1, B2) et DeepRobotics sont déjà en déploiement commercial, ce qui positionne ce lancement davantage comme une entrée stratégique que comme une rupture technologique immédiate.

Chine/AsieActu
1 source
Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota
171Le Big Data 

Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota

Toyota a dévoilé le 14 avril 2026 la septième génération de son robot basketteur CUE7, une machine capable de tirer au panier, dribbler et se déplacer avec une précision remarquable. Par rapport à son prédécesseur CUE6, ce robot a été considérablement allégé, passant de 120 kg à 74 kg, et adopte une structure à deux roues inversées qui améliore sa stabilité et son agilité. Techniquement, CUE7 repose sur une combinaison de vision artificielle, de planification de mouvement et d'un système hybride mêlant apprentissage par renforcement et contrôle classique : le robot analyse le panier, calcule la distance, ajuste sa posture et déclenche le tir avec une régularité quasi mécanique. En 2019 déjà, la version CUE3 avait enchaîné 2 020 lancers francs réussis d'affilée, une série arrêtée volontairement par les ingénieurs alors que la machine pouvait continuer. En 2024, CUE6 avait décroché un record Guinness avec un tir longue distance impressionnant. Au-delà de l'exploit sportif, CUE7 représente une étape concrète dans le développement de ce que Toyota appelle l'intelligence artificielle incarnée, des systèmes capables d'interagir physiquement avec leur environnement de façon autonome et adaptative. Le basket-ball n'est pas un choix anodin : ce sport impose des défis simultanés complexes, comme la détection de cible, le calcul de trajectoire, la coordination motrice et l'ajustement en temps réel, ce qui en fait un terrain d'expérimentation idéal pour des technologies destinées à des applications industrielles, médicales ou domestiques beaucoup plus larges. La capacité du robot à apprendre de ses erreurs et à affiner ses gestes par itération rapproche son fonctionnement de celui d'un athlète humain s'entraînant séance après séance. Le projet CUE est né à l'origine d'une initiative parallèle portée par des employés passionnés de Toyota, avant d'être intégré dans une démarche de recherche plus structurée. Depuis ses débuts sous forme de prototype LEGO, la série a progressé de génération en génération vers plus d'autonomie, de mobilité et de précision. CUE7 marque le saut le plus visible à ce jour, avec un robot capable non seulement de tirer mais aussi de se déplacer et de dribbler. Cette trajectoire s'inscrit dans une course plus large menée par les grands acteurs industriels, Toyota, Boston Dynamics, Figure, Tesla, pour doter les robots humanoïdes et semi-humanoïdes de capacités physiques comparables à celles de l'humain, ouvrant la voie à des usages concrets dans des environnements non structurés.

HumanoïdesActu
1 source
L'étude des attitudes humaines envers les robots par l'expérience
172IEEE Spectrum AI 

L'étude des attitudes humaines envers les robots par l'expérience

Au cours de l'été 2025, le RAI Institute a installé une expérience robotique gratuite et éphémère au centre commercial CambridgeSide de Cambridge, Massachusetts. Sur environ 10 000 visiteurs accueillis, une partie a pu prendre en main les commandes d'un robot quadrupède Spot, fabriqué par Boston Dynamics et considéré comme l'un des robots commerciaux les plus reconnaissables du marché. L'espace se divisait en deux zones : un musée présentant des robots historiques et contemporains, dont des prototypes du RAI Institute comme l'UMV, et une arène de conduite appelée "Drive-a-Spot". Les participants utilisaient un contrôleur adaptatif inspiré des manettes de jeu vidéo, avec des boutons larges utilisables par des enfants dès deux ans comme par des personnes de plus de 90 ans. L'arène changeait de décor toutes les quelques semaines, alternant entre un environnement d'usine, un domicile, un hôpital et un scénario de catastrophe extérieure. L'objectif principal de cette initiative était double : offrir au grand public une rencontre directe avec des robots de pointe, et mesurer scientifiquement l'évolution des perceptions après une interaction réelle. Les visiteurs volontaires remplissaient un questionnaire avant et après avoir conduit le Spot, évaluant leur niveau de confort et la pertinence du robot dans différents contextes professionnels et domestiques. Cette méthodologie est précieuse car la majorité des opinions sur la robotique se forment à partir de la culture populaire et des réseaux sociaux, deux vecteurs qui privilégient les récits sensationnels au détriment d'une représentation fidèle des capacités réelles des machines. Ce que beaucoup de visiteurs ont découvert avec surprise, c'est que Spot est capable d'ajuster ses déplacements de manière autonome pour franchir des obstacles, même lorsqu'il est simplement supervisé par une manette. Cette étude s'inscrit dans un moment charnière pour l'industrie robotique, où les questions d'acceptabilité sociale deviennent aussi stratégiques que les défis techniques. Le RAI Institute, dirigé par Marc Raibert, l'un des fondateurs historiques de la robotique à pattes, cherche à combler le fossé entre les avancées en laboratoire et la perception publique. Le choix des quatre scénarios de l'arène n'est pas anodin : il oppose des environnements où les robots sont déjà largement acceptés, comme l'industrie et les situations d'urgence, à des cadres où l'ambivalence est documentée, notamment le domicile et les établissements de santé. Les résultats de l'enquête, portant sur un échantillon représentatif de la population générale, devraient alimenter la réflexion des concepteurs de robots sur la manière d'intégrer ces machines dans des espaces partagés avec les humains.

Societe/EthiqueActu
1 source
Semaine nationale de la robotique : dernières avancées en IA physique et ressources
173NVIDIA AI Blog 

Semaine nationale de la robotique : dernières avancées en IA physique et ressources

À l'occasion de la Semaine nationale de la robotique aux États-Unis, NVIDIA met en avant ses avancées dans le domaine de l'intelligence artificielle physique, c'est-à-dire l'IA appliquée à des robots capables d'agir dans le monde réel. L'entreprise présente cette semaine une série de technologies couvrant la simulation, la génération de données synthétiques et l'apprentissage automatique pour robots, destinées aux développeurs qui souhaitent concevoir des machines autonomes opérationnelles dans des environnements complexes. L'enjeu est considérable : ces outils permettent de réduire drastiquement le temps nécessaire pour passer de l'entraînement en environnement virtuel au déploiement sur le terrain. Concrètement, un robot peut aujourd'hui apprendre à naviguer, saisir des objets ou réagir à des imprévus dans un simulateur NVIDIA avant d'être testé dans une usine, une serre agricole ou une centrale énergétique. Ce raccourci entre simulation et réalité est l'un des verrous techniques les plus critiques de la robotique industrielle. NVIDIA se positionne comme la colonne vertébrale de cette transition, en proposant des plateformes intégrées qui couvrent l'ensemble de la chaîne de développement robotique. La compétition dans ce secteur s'intensifie, avec des acteurs comme Boston Dynamics, Figure AI ou Agility Robotics qui cherchent eux aussi à industrialiser leurs solutions. La Semaine de la robotique sert ici de vitrine stratégique pour NVIDIA, qui entend s'imposer comme fournisseur incontournable d'infrastructure IA pour la prochaine génération de robots autonomes dans l'industrie, l'agriculture et l'énergie.

UELes plateformes de simulation et d'entraînement robotique de NVIDIA sont accessibles aux développeurs et industriels européens, mais cet événement est centré sur le marché américain sans impact direct sur la France/UE.

💬 Le vrai sujet ici, c'est pas la Semaine de la robotique, c'est NVIDIA qui s'impose discrètement comme le AWS de la robotique industrielle. La réduction du gap sim-to-real, c'est le verrou qui bloquait tout depuis des années, et là ils ont une vraie réponse technique. Reste à voir si les industriels européens vont jouer le jeu ou rester dépendants d'une stack américaine de plus.

HumanoïdesActu
1 source
Il y a 30 ans, les robots ont appris à marcher sans tomber
174IEEE Spectrum AI 

Il y a 30 ans, les robots ont appris à marcher sans tomber

En 1996, Honda a présenté le Prototype 2 (P2), le premier robot humanoïde autonome capable de marcher sans tomber. Mesurant 183 centimètres pour 210 kilogrammes, le P2 pouvait contrôler sa posture pour maintenir l'équilibre et actionner plusieurs articulations simultanément. Cette réalisation vient d'être reconnue comme un IEEE Milestone, avec une cérémonie de dédicace prévue le 28 avril au Honda Collection Hall, sur le circuit Mobility Resort Motegi au Japon. Derrière cette prouesse, quatre ingénieurs Honda : Kazuo Hirai, Masato Hirose, Yuji Haikawa et Toru Takenaka, qui avaient lancé le projet dès 1986 avec l'ambition de créer un robot domestique capable de monter des escaliers, contourner des obstacles et manipuler des outils. Cette avancée a redéfini les standards de la robotique mondiale. Avant le P2, aucun robot ne pouvait se déplacer de manière autonome sans perdre l'équilibre — le WABOT-1, construit en 1973 à l'Université Waseda de Tokyo, pouvait certes marcher et parler japonais, mais de façon instable et sans capacité à éviter les obstacles. L'équipe Honda a dû repenser entièrement la biomécanique humaine : analyser les mouvements du corps, adapter le nombre d'articulations (hanches, genoux, chevilles, épaules), et installer des moteurs DC avec des systèmes de réduction harmonique pour concilier compacité et couple élevé. Les premiers prototypes, comme le E0 — une simple paire de jambes — mettaient 15 secondes par pas. Chaque itération a permis de passer de la marche statique en ligne droite à une locomotion dynamique et autonome, ouvrant la voie aux robots humanoïdes modernes comme l'ASIMO ou ceux développés aujourd'hui par Boston Dynamics, Figure ou 1X. Quand C-3PO est apparu sur grand écran en 1977, l'idée d'un androïde marchant et interagissant comme un humain relevait de la science-fiction. Il aura fallu près de vingt ans à l'ingénierie réelle pour rattraper cette vision — et le P2 en a posé la première pierre concrète.

HumanoïdesOpinion
1 source
L'IA physique fait son entrée triomphale et tout le monde veut en profiter
175AI News 

L'IA physique fait son entrée triomphale et tout le monde veut en profiter

Le Physical AI, qui décrit les systèmes AI opérant dans le monde réel, gagne en popularité. Des entreprises occidentales comme Nvidia, Arm, Siemens et Google investissent massivement dans cette technologie, créant des plateformes et des semiconducteurs pour robots et véhicules intelligents. En Chine, l'accent est mis sur la construction matérielle de ces robots, avec des entreprises comme Boston Dynamics opérant directement dans des usines comme celle de Hyundai en Géorgie. Une enquête révèle que 58% des dirigeants d'entreprises mondiales utilisent déjà le Physical AI, et ce chiffre monte à 80% pour les plans futurs.

UEL'essor du Physical AI, avec des investissements majeurs de Nvidia, Arm, Siemens, Google, et Boston Dynamics, pose des opportunités et des défis pour les entreprises françaises et européennes dans les secteurs des robotiques et des véhicules intelligents, tout en se conformant aux exigences de la réglementation AI Act et du RGPD.

IA physiqueActu
1 source