Aller au contenu principal

Recherche — page 11

519 articles · page 11 sur 11

Publications scientifiques en robotique : arXiv cs.RO, ICRA, IROS, Humanoids, CoRL — nouveaux algorithmes, benchmarks et datasets.

VeriGraph : graphes de scène pour la vérification de plans de robots
501arXiv cs.RO RechercheOpinion

VeriGraph : graphes de scène pour la vérification de plans de robots

Des chercheurs ont publié VeriGraph (arXiv:2411.10446v3), un système de planification robotique qui combine des modèles vision-langage (VLM) avec un mécanisme de vérification formelle des actions. Le principe central repose sur l'utilisation de graphes de scène comme représentation intermédiaire : à partir d'images en entrée, le système construit un graphe capturant les objets présents et leurs relations spatiales, puis s'en sert pour valider et corriger en boucle les séquences d'actions générées par un planificateur LLM. Les gains rapportés sur des tâches de manipulation sont significatifs : +58 % de taux de complétion sur les tâches guidées par langage, +56 % sur des puzzles tangram, et +30 % sur les tâches guidées par image, par rapport aux méthodes de référence testées. Ce résultat pointe un problème structurel bien documenté dans le domaine : les VLM et LLM génèrent des plans plausibles en surface mais géométriquement ou physiquement incorrects, un objet posé sur une surface inexistante, une saisie dans un ordre impossible. VeriGraph traite ce gap en introduisant une couche de vérification symbolique ancrée dans l'état réel de la scène, ce qui réduit les hallucinations de planification sans nécessiter de fine-tuning du modèle sous-jacent. Pour les intégrateurs industriels et les équipes robotique, cela suggère une voie pragmatique : greffer un vérificateur léger sur des LLM généralistes plutôt que de tout réentraîner, ce qui abaisse potentiellement le coût d'adaptation à de nouveaux environnements. VeriGraph s'inscrit dans un courant de recherche actif autour des architectures hybrides neuro-symboliques pour la robotique, où des travaux comme SayPlan (Rana et al.), LLMTAMP ou les approches PDDL-guided cherchent tous à contraindre la génération de plans par des vérificateurs formels ou géométriques. La nouveauté ici réside dans l'usage du graphe de scène comme interface universelle entre perception et planification. Les auteurs publient le code sur un site dédié, ce qui facilite la reproductibilité, mais les expériences restent en environnement simulé ou de laboratoire contrôlé, aucun déploiement en conditions industrielles réelles n'est mentionné à ce stade.

1 source
Mémoire à long terme pour agents VLA dans l'exécution de tâches en environnement ouvert
502arXiv cs.RO 

Mémoire à long terme pour agents VLA dans l'exécution de tâches en environnement ouvert

Une équipe de chercheurs a publié le 22 avril 2026 sur arXiv (ref. 2504.15671) les résultats de ChemBot, un système robotique conçu pour automatiser des protocoles d'expérimentation chimique complexes en laboratoire. ChemBot repose sur une architecture à deux couches couplant un agent IA planificateur à un modèle Vision-Language-Action (VLA) baptisé Skill-VLA, capable de décomposer hiérarchiquement des tâches longues, typiquement des protocoles multi-étapes, puis de les exécuter sur des robots collaboratifs. Le système intègre une mémoire persistante à double niveau qui archive les trajectoires réussies sous forme d'assets réutilisables, et s'appuie sur un serveur Model Context Protocol (MCP) pour orchestrer les sous-agents et les outils. Un mécanisme d'inférence asynchrone basé sur la prédiction d'états futurs est également implémenté pour réduire les discontinuités de trajectoire, un défaut récurrent des VLA standards. Les expériences rapportées montrent des taux de succès et une précision opérationnelle supérieurs aux baselines VLA existantes sur des scénarios longs et multi-étapes. Ce travail adresse une limite structurelle bien documentée des modèles VLA : leur incapacité à capitaliser sur les expériences passées, ce qui force le système à recommencer par tâtonnements à chaque nouvelle session. En intégrant une mémoire persistante récupérable, ChemBot réduit concrètement le "trial-and-error gap" dans des environnements à longue horizon de planification, un problème critique pour l'automatisation de laboratoire où une erreur en milieu de protocole peut invalider toute une expérience. C'est également une démonstration applicative du sim-to-real dans un domaine non industriel, le laboratoire chimique, traditionnellement peu couvert par les benchmarks robotiques. Pour les intégrateurs B2B dans le pharma ou la recherche chimique, cela constitue un signal concret vers des robots de laboratoire autonomes capables de gérer des workflows non déterministes. Les modèles VLA ont connu une montée en puissance rapide depuis 2023 avec des travaux comme RT-2 (Google DeepMind), OpenVLA et Pi-0 (Physical Intelligence), mais la majorité des déploiements restent limités à des tâches courtes et répétitives. ChemBot se positionne dans le segment émergent des "long-horizon VLA", aux côtés de travaux comme SayCan ou des architectures hiérarchiques de Carnegie Mellon. Aucun déploiement industriel n'est annoncé à ce stade, il s'agit d'une publication académique avec validation sur robots collaboratifs en environnement contrôlé. Les prochaines étapes logiques incluent des tests sur des plateformes comme les robots Universal Robots ou Franka, et une intégration potentielle avec des systèmes LIMS existants dans les laboratoires pharmaceutiques.

RechercheOpinion
1 source
Raisonnement par graphe de zones sémantiques pour la recherche multi-robots guidée par le langage
503arXiv cs.RO 

Raisonnement par graphe de zones sémantiques pour la recherche multi-robots guidée par le langage

Une équipe de chercheurs a publié SAGR (Semantic Area Graph Reasoning), un framework hiérarchique permettant à des grands modèles de langage (LLM) de coordonner des essaims multi-robots pour la recherche sémantique en environnement inconnu. Évalué sur 100 scénarios du dataset Habitat-Matterport3D, SAGR affiche jusqu'à 18,8 % de gain d'efficacité sur la recherche de cibles sémantiques dans les grands environnements, tout en restant compétitif avec les méthodes d'exploration state-of-the-art basées sur la couverture de frontières. Le système construit incrémentalement un graphe sémantique de zones à partir d'une carte d'occupation sémantique, encodant instances de pièces, connectivité, frontières disponibles et états des robots dans une représentation compacte transmise au LLM pour le raisonnement de haut niveau. La navigation locale et la planification géométrique restent déterministes. L'apport central est architectural : SAGR résout le problème d'interface entre raisonnement symbolique et coordination géométrique, un point de friction récurrent dans les systèmes multi-robots. Les approches classiques (frontier coverage, information gain) sont aveugles à l'intention de tâche, elles ne savent pas qu'une « cafetière » se trouve probablement dans une cuisine, pas un couloir. SAGR délègue cette inférence contextuelle au LLM via une abstraction topologique structurée, sans exposer le modèle au bruit d'une carte brute. C'est une séparation claire des responsabilités : le LLM raisonne sur la sémantique des pièces, les robots exécutent localement. Pour un intégrateur ou un opérateur d'entrepôt multi-AGV, cela ouvre la voie à des instructions en langage naturel comme « trouve le chariot de nettoyage » sans reconfiguration de la logique de navigation. Ce travail s'inscrit dans une tendance forte de 2024-2025 : l'injection de LLM dans la boucle de planification robotique, aux côtés de travaux comme SayPlan (Rana et al.), NavGPT ou des approches VLA type RT-2 et π₀. SAGR se distingue en ciblant explicitement la coordination multi-agent plutôt que le robot unique, et en validant sur un benchmark standardisé (HM3D) plutôt qu'en démo lab. La prochaine étape logique sera le passage du simulateur au réel, le sim-to-real gap sur la segmentation sémantique restant le principal obstacle non adressé par les auteurs.

RechercheActu
1 source
NeuroMesh : un framework d'inférence neurale unifié pour la collaboration multi-robots décentralisée
504arXiv cs.RO 

NeuroMesh : un framework d'inférence neurale unifié pour la collaboration multi-robots décentralisée

Une équipe de chercheurs a publié le 21 avril 2026 sur arXiv (référence 2604.15475) les spécifications de NeuroMesh, un framework d'inférence neuronale décentralisée conçu pour faire collaborer des flottes de robots hétérogènes sans dépendre d'un serveur central. Le système standardise quatre étapes clés dans un pipeline unifié : l'encodage des observations locales, le passage de messages entre robots, l'agrégation des informations reçues, et le décodage des tâches. L'implémentation est écrite en C++ haute performance et utilise Zenoh, un protocole de communication inter-robots orienté faible latence, avec support d'inférence hybride GPU/CPU. Les auteurs ont validé NeuroMesh sur une flotte mixte composée de robots aériens et terrestres sur trois catégories de tâches : perception collaborative, contrôle décentralisé et assignation de missions. Une mise en open-source est annoncée mais sans date précisée. Ce qui distingue NeuroMesh sur le plan technique est son paradigme de double agrégation, combinant fusion par réduction (agrégation globale) et diffusion par broadcast (partage sélectif), ainsi qu'une architecture parallélisée qui découple le cycle time de la latence bout-en-bout. Concrètement, cela signifie que la fréquence d'exécution locale d'un robot n'est plus bridée par les délais réseau, un verrou classique dans les architectures multi-robots apprenantes. Pour les intégrateurs industriels déployant des flottes AMR ou des systèmes drone-sol, cette propriété est critique : elle ouvre la voie à des modèles entraînés une fois et déployés sur du matériel varié sans refactoring du stack d'exécution. Le problème adressé par NeuroMesh, l'hétérogénéité matérielle combinée aux contraintes réseau, est un obstacle bien documenté dans la robotique multi-agents apprenante depuis les travaux sur MARL (Multi-Agent Reinforcement Learning) distribué. Des frameworks comme ROS 2 gèrent la communication mais pas l'inférence unifiée ; des approches comme celles de MIT CSAIL ou Stanford ILIAD ont exploré la coordination décentralisée sans proposer de stack complet cross-platform. NeuroMesh se positionne comme une couche d'abstraction au-dessus du hardware, comparable à ce que ONNX Runtime représente pour l'inférence mono-robot. L'absence de release effective au moment de la publication et la validation limitée à des configurations de laboratoire invitent à attendre des benchmarks sur flottes industrielles avant tout engagement produit.

RecherchePaper
1 source
Transfert de compétences entre géométries différentes en une seule démonstration par décomposition en parties
505arXiv cs.RO 

Transfert de compétences entre géométries différentes en une seule démonstration par décomposition en parties

Des chercheurs ont publié le 20 avril 2026 (arXiv:2604.15455) une méthode permettant à un robot d'apprendre un geste à partir d'une seule démonstration, puis de le transférer à des objets de formes radicalement différentes, sans nouvel entraînement. L'approche repose sur une décomposition sémantique : plutôt que de comparer un objet entier à un autre, le système identifie les parties fonctionnelles pertinentes (poignée, bord, surface de contact) et transfère les points d'interaction entre les pièces homologues de l'objet de démonstration et de l'objet cible. Des modèles génératifs de formes à faible coût de données construisent automatiquement une fonction objectif qui optimise l'alignement de ces points sur les parties critiques pour l'exécution du skill. Les validations couvrent plusieurs skills et familles d'objets, en simulation et en environnement réel. Ce résultat est notable car il s'attaque directement au "demo-to-reality gap" géométrique : la majorité des systèmes actuels de transfert de skills, y compris ceux basés sur des Visual Language Action models (VLA), peinent dès que la forme de l'objet cible s'écarte significativement de celle vue lors de l'apprentissage. La décomposition en parties découple la variabilité de forme globale de la logique d'interaction locale, ce qui augmente mécaniquement le domaine de généralisation sans multiplier les données d'entraînement. Pour un intégrateur industriel ou un équipementier travaillant sur des lignes multi-références, c'est une piste concrète pour réduire le coût de re-programmation à chaque changement de référence produit. Le problème du transfert de skills en robotique est étudié depuis des années sous différents angles : apprentissage par démonstration (LfD), correspondances fonctionnelles entre objets, ou plus récemment les VLA pré-entraînés sur larges corpus vidéo (Pi-0 de Physical Intelligence, GR00T N2 de NVIDIA). Cette approche se positionne dans la lignée des travaux sur le raisonnement compositionnel, qui cherchent à représenter les objets non comme des blobs de points mais comme des assemblages de parties sémantiques, une direction explorée également par des groupes comme le MIT CSAIL et Stanford. Aucun partenariat industriel ni déploiement terrain n'est annoncé à ce stade : il s'agit d'une contribution académique, prometteuse mais encore à valider sur des skills complexes et des environnements fortement non structurés.

RechercheActu
1 source
COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques
506arXiv cs.RO 

COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques

Des chercheurs ont publié sur arXiv (référence 2510.03875v2) un framework baptisé COVER (Coverage-VErified Roadmaps), conçu pour résoudre des requêtes de planification de mouvement dans un budget temps fixe, sur un manipulateur 7-DOF effectuant des tâches de pick-and-place dans des environnements de type table rase et étagères. Le principe repose sur des environnements dits semi-statiques : la majorité de l'espace de travail reste identique entre les tâches, tandis qu'un sous-ensemble d'obstacles change de position. COVER décompose l'espace des configurations possibles de chaque obstacle mobile de façon indépendante, construit des roadmaps (graphes de chemins) de façon incrémentale, et vérifie formellement la faisabilité de ces graphes dans chaque partition. Pour les régions vérifiées, la résolution d'une requête est garantie dans un temps borné. Les benchmarks montrent une couverture de l'espace-problème plus large et un taux de succès par requête supérieur aux approches antérieures, notamment face à des obstacles de tailles hétérogènes. L'enjeu industriel est direct : les planificateurs généralistes comme RRT ou ses variantes ne garantissent pas de temps de réponse borné, ce qui bloque leur usage dans les applications temps-réel (lignes d'assemblage, cellules de palettisation, cobots en cadence synchronisée). COVER apporte une garantie formelle de couverture, absente des travaux précédents, sans discrétiser les configurations d'obstacles en un ensemble fini prédéfini. C'est ce dernier point qui étend l'applicabilité aux scénarios industriels réels, où les positions d'obstacles varient continûment et ne tombent pas dans des cases prédéterminées. Pour un intégrateur, la différence est concrète : un planificateur qui "essaie" n'a pas la même valeur contractuelle qu'un planificateur qui "garantit" dans X millisecondes. La planification de mouvement certifiée dans des environnements changeants est un problème ouvert depuis des années, à la frontière entre la robotique manipulation et la vérification formelle. Les approches par probabilistic roadmaps (PRM) offrent performance mais pas de garanties ; les méthodes exactes sont trop coûteuses en temps de calcul pour être embarquées. COVER se positionne entre ces deux extrêmes en exploitant la structure semi-statique propre à la majorité des environnements industriels. Les concurrents implicites sont les planificateurs adaptatifs comme STOMP, TrajOpt, ou les approches d'apprentissage par imitation (pi-zero de Physical Intelligence, GR00T N2 de NVIDIA), qui résolvent la planification par inférence neuronale mais sans garantie formelle de complétude. La prochaine étape naturelle serait d'étendre COVER à des environnements avec obstacles dynamiques ou à des manipulateurs montés sur bases mobiles, ce que l'article ne couvre pas encore.

RecherchePaper
1 source
De la perception à la simulation : génération haute-fidélité avec cousins numériques pour l'apprentissage et l'évaluation de robots généralisables
507arXiv cs.RO 

De la perception à la simulation : génération haute-fidélité avec cousins numériques pour l'apprentissage et l'évaluation de robots généralisables

Une équipe de chercheurs a publié en avril 2026 sur arXiv (arXiv:2604.15805) un framework génératif baptisé "Digital Cousins", conçu pour transformer automatiquement des panoramas de scènes réelles en environnements de simulation haute fidélité, puis en générer des variantes sémantiques et géométriques diversifiées. Le système prend en entrée une image panoramique d'une pièce réelle, reconstruit une scène simulée cohérente, et applique des modifications contrôlées, repositionnement d'objets, changement de géométrie, substitution de matériaux, pour produire des "scènes cousines" statistiquement variées. Un module de raccordement multi-pièces permet de construire des environnements à grande échelle pour des tâches de navigation longue portée dans des layouts complexes. Les expériences montrent que scaler massivement la génération de données améliore significativement la généralisation à des scènes et objets non vus en entraînement. Ce travail s'attaque directement à l'un des goulots d'étranglement majeurs du robot learning : collecter des données réelles diversifiées est coûteux en temps, en assets physiques et en reconfiguration manuelle d'environnements. L'approche real-to-sim-to-real proposée ici offre aux intégrateurs et équipes R&D une voie pour démultiplier leur corpus d'entraînement sans mobiliser de ressources physiques supplémentaires. La corrélation sim-to-real mesurée dans les expériences valide la fidélité de la plateforme, un point crucial, car beaucoup de frameworks de simulation peinent à transférer en conditions réelles. Pour les décideurs B2B, cela signifie des cycles de développement potentiellement plus courts et une meilleure robustesse des politiques déployées face à la variabilité des environnements industriels. À noter que les métriques de généralisation sont présentées sur des benchmarks de manipulation et de navigation en intérieur ; leur tenue dans des contextes industriels contraints (entrepôts, lignes de production) reste à démontrer hors laboratoire. Le concept de "Digital Cousins" s'inscrit dans une vague de travaux visant à combler le sim-to-real gap, aux côtés d'approches comme Isaac Sim (NVIDIA), Habitat (Meta) ou Genesis (labo Carnegie Mellon). Ce qui différencie cette contribution est la chaîne génératrice bout-en-bout à partir de panoramas, une méthode plus accessible que la modélisation 3D manuelle traditionnelle. Les auteurs ne rattachent pas explicitement le framework à un robot ou un produit commercial, ce qui en fait pour l'instant un outil de recherche. Les prochaines étapes naturelles seraient une intégration avec des pipelines VLA (Vision-Language-Action) existants comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA), et une validation sur des robots manipulateurs déployés en conditions semi-réelles.

RecherchePaper
1 source
Planification de trajectoires multi-objectifs pour flottes de robots hétérogènes par échantillonnage
508arXiv cs.RO 

Planification de trajectoires multi-objectifs pour flottes de robots hétérogènes par échantillonnage

Une équipe de chercheurs en robotique vient de publier sur arXiv (référence 2503.03509, troisième révision) un ensemble de planificateurs de trajectoires conçus pour coordonner plusieurs robots évoluant simultanément dans un espace de travail partagé, chacun devant atteindre plusieurs objectifs successifs dans des configurations physiques variées. Le problème ciblé, dit "multi-modal multi-robot multi-goal", couvre des scénarios concrets tels que le passage de pièces entre bras robotiques (handover), la navigation avec changements de mode de préhension, ou la coordination de flottes sur des horizons de planification longs. Les planificateurs proposés sont des extensions de méthodes classiques à base d'échantillonnage (de type RRT/PRM) adaptées à l'espace composite de l'ensemble des robots, et sont prouvés probabilistically complete et asymptotically optimal, deux propriétés formelles rarement réunies dans ce contexte. Le code source et le benchmark de validation sont disponibles publiquement. L'apport principal est théorique et algorithmique : les approches existantes pour ce type de problème reposent soit sur la priorisation entre robots (un robot cède le passage à un autre selon un rang fixé), soit sur une hypothèse de complétion synchrone des tâches. Ces simplifications sacrifient à la fois l'optimalité (la solution trouvée n'est pas la meilleure possible) et la complétude (l'algorithme peut rater des solutions valides). En reformulant le problème comme un seul problème centralisé de planification, les auteurs montrent qu'on peut lever ces limitations sans explosion combinatoire, au prix d'une planification dans un espace de dimension élevée. Pour les intégrateurs de cellules robotisées multi-bras ou les concepteurs de systèmes pick-and-place collaboratifs, cela ouvre la voie à des planificateurs de référence plus rigoureux que les heuristiques actuellement déployées en production. Ce travail s'inscrit dans un courant de recherche actif sur la planification multi-robot, aux côtés de travaux comme CBS (Conflict-Based Search) pour les AMR en entrepôt ou les approches de task-and-motion planning (TAMP) développées notamment chez MIT CSAIL, TU Berlin ou dans des labos liés à Boston Dynamics et Intrinsic (Alphabet). La distinction entre planification centralisée et décentralisée reste un axe structurant du domaine : cette contribution penche résolument du côté centralisé, ce qui la rend plus adaptée aux cellules industrielles fixes qu'aux flottes mobiles à grande échelle. La prochaine étape naturelle serait une validation sur hardware réel et une confrontation aux contraintes temps-réel des contrôleurs industriels.

RecherchePaper
1 source
Les limites de l'évolution lamarckienne face à la pression de nouveauté morphologique
509arXiv cs.RO 

Les limites de l'évolution lamarckienne face à la pression de nouveauté morphologique

Une étude publiée sur arXiv (arXiv:2604.15854) en avril 2026 examine les limites de l'héritage lamarckien dans les systèmes de robots modulaires évolutifs. Le cadre expérimental repose sur une population de robots capables de co-évoluer leur morphologie et leurs contrôleurs, puis d'apprendre individuellement une tâche de locomotion. Dans un système lamarckien, les contrôleurs appris par les parents sont transmis directement aux descendants, contrairement à l'approche darwinienne classique où seule l'information génétique est héritée. Les chercheurs ont comparé les deux paradigmes en faisant varier la pression de sélection : d'une optimisation pure sur la performance de locomotion à une optimisation multi-objectif intégrant également une récompense pour la nouveauté morphologique. Résultat : l'héritage lamarckien surpasse le darwinisme en optimisation de tâche seule, mais accuse une chute de performance significativement plus importante dès que la diversité morphologique est encouragée. Ce résultat met en évidence un arbitrage fondamental dans la conception des systèmes d'évolution robotique : l'exploitation par héritage et l'exploration par diversité sont partiellement incompatibles. L'efficacité de l'héritage lamarckien repose sur une hypothèse implicite de continuité morphologique entre parent et descendant. Or, maximiser la diversité des formes casse précisément cette continuité, rendant les contrôleurs hérités peu ou pas transférables. Pour les chercheurs en robotique évolutive et les équipes travaillant sur la synthèse automatique de robots (notamment pour des applications d'adaptation en environnements non structurés), cela signifie que le choix du mécanisme d'héritage doit être conditionné au régime d'exploration morphologique visé. Ces travaux s'inscrivent dans un débat actif en robotique évolutive sur le sim-to-real gap et la capacité des algorithmes évolutifs à produire des morphologies réellement variées et fonctionnelles. Plusieurs équipes européennes, dont des laboratoires français travaillant sur la robotique adaptative, explorent des compromis similaires entre plasticité morphologique et transfert de politiques de contrôle. La piste ouverte par cette étude pointe vers des mécanismes d'héritage sélectif ou conditionnel, activés uniquement lorsque la similarité parent-descendant dépasse un seuil donné, une direction que les auteurs identifient comme prolongement naturel de ces résultats.

UELes équipes européennes et françaises travaillant sur la robotique évolutive et adaptative peuvent ajuster leur choix de mécanisme d'héritage selon le régime d'exploration morphologique visé, à la lumière de ces résultats expérimentaux.

RecherchePaper
1 source
GIST : extraction de connaissances multimodales et ancrage spatial par topologie sémantique intelligente
510arXiv cs.RO 

GIST : extraction de connaissances multimodales et ancrage spatial par topologie sémantique intelligente

Des chercheurs ont publié GIST (Grounded Intelligent Semantic Topology), un pipeline de traitement multimodal capable de transformer un nuage de points 3D capturé avec un équipement grand public en une carte de navigation sémantiquement annotée. Le système construit d'abord une carte d'occupation 2D, en extrait la topologie spatiale, puis y superpose une couche sémantique légère par sélection intelligente de keyframes. Quatre modules sont démontrés en aval : un moteur de recherche sémantique capable d'inférer des alternatives catégorielles quand la correspondance exacte échoue, un localisateur one-shot atteignant 1,04 mètre d'erreur de translation moyenne (top-5), un classificateur de zones segmentant le plan de sol en régions sémantiques de haut niveau, et un générateur d'instructions de navigation en langage naturel ancré visuellement dans des repères contextuels. Une évaluation in situ sur cinq participants affiche un taux de succès de navigation de 80 % en s'appuyant uniquement sur des instructions verbales. L'intérêt pour les intégrateurs industriels réside dans l'approche bas coût : GIST ne requiert pas de LiDAR haute précision, mais exploite un nuage de points mobile grand public, ce qui abaisse significativement le seuil d'entrée pour des déploiements en entrepôt, hôpital ou grande surface. La robustesse à la distribution longue des sémantiques visuelles, problème classique dans les environnements retail denses où les rayonnages changent fréquemment, est explicitement adressée, là où les VLMs (Vision-Language Models) courants échouent sur le grounding spatial en environnement encombré. Cela dit, l'évaluation reste exploratoire (N=5), et les résultats ne constituent pas une validation à l'échelle industrielle. Le papier s'inscrit dans un courant de recherche actif autour de la navigation sémantique pour l'IA incarnée, en concurrence directe avec des approches comme les semantic maps dérivées de NeRF ou les pipelines SLAM enrichis par LLM. Côté Europe, des acteurs comme Enchanted Tools (robots hospitaliers) ou Exotec (systèmes AMR pour entrepôts) pourraient trouver dans ce type de représentation topologique une brique utile pour la localisation fine et la génération d'instructions opérateur. L'article est disponible en preprint sur arXiv (2604.15495) et n'a pas encore été soumis à évaluation par les pairs au moment de sa publication.

UEDes acteurs français comme Enchanted Tools (robots hospitaliers) et Exotec (AMR entrepôts) pourraient exploiter ce type de cartographie sémantique bas coût pour améliorer la localisation fine et la génération d'instructions opérateur, sans investissement LiDAR haute précision.

RecherchePaper
1 source
Estimation de forme des robots continus par graphes de facteurs et développement de Magnus
511arXiv cs.RO 

Estimation de forme des robots continus par graphes de facteurs et développement de Magnus

Des chercheurs ont publié le 22 avril 2026 sur arXiv une méthode de reconstruction de forme pour manipulateurs continus (continuum robots), ces bras flexibles à courbure infinie utilisés notamment en chirurgie mini-invasive et en inspection de conduites. Le système combine une paramétrisation GVS (Geometric Variable Strain) en basse dimension avec un graphe de facteurs, les deux éléments étant liés par un facteur cinématique inédit dérivé de l'expansion de Magnus du champ de déformation. Évalué en simulation sur un robot continu à câbles de 0,4 m de longueur, le pipeline atteint des erreurs de position moyennes inférieures à 2 mm dans trois configurations de capteurs distinctes, et divise par six l'erreur d'orientation par rapport à une ligne de base par régression de processus gaussien (GP) lorsque seules des mesures de position sont disponibles. Aucun déploiement matériel réel n'est encore rapporté : il s'agit d'un résultat de simulation validé sur préprint, pas d'un produit commercialisé. L'intérêt pour les intégrateurs et les équipes de R&D est double. D'abord, la méthode produit un vecteur d'état compact directement exploitable par des boucles de contrôle model-based, ce que les approches purement probabilistes basées sur la discrétisation spatiale des tiges de Cosserat ne permettent pas sans un coût computationnel croissant avec la résolution. Ensuite, l'incertitude reste quantifiée, ce que les méthodes paramétriques classiques sacrifient au profit de la compacité. Pour le secteur chirurgical en particulier, où la redondance et la sécurité certifiable sont des prérequis réglementaires, la combinaison compacité-incertitude représente un progrès méthodologique tangible, à condition qu'il se confirme sur hardware réel. Les manipulateurs continus constituent un axe de recherche actif depuis les années 2000, porté notamment par les laboratoires travaillant sur la chirurgie robotique (Intuitive Surgical côté industriel, groupes académiques comme le King's College London ou la TU Delft côté recherche). Les approches concurrentes incluent les modèles de tige de Cosserat discrétisés, les réseaux de neurones pour la cinématique directe et les processus gaussiens, chacun présentant un compromis différent entre précision, temps de calcul et structure probabiliste. La prochaine étape attendue est une validation expérimentale sur banc physique avec bruit de capteur réel, condition sine qua non avant toute intégration dans un système de contrôle clinique ou industriel.

UELes laboratoires européens actifs en robotique chirurgicale (dont TU Delft) pourraient intégrer cette brique algorithmique dans leurs travaux sur les boucles de contrôle certifiables, à condition d'une validation hardware confirmée.

RecherchePaper
1 source
Articulation pneumatique reconfigurable pour rigidification sélective et verrouillage de forme dans les robots à croissance végétale
512arXiv cs.RO 

Articulation pneumatique reconfigurable pour rigidification sélective et verrouillage de forme dans les robots à croissance végétale

Des chercheurs ont publié le 22 avril 2026 sur arXiv (référence 2604.15907) une architecture de joint pneumatique reconfigurable (RPJ) destinée aux robots de type "vine", ces structures souples qui progressent par éversion à l'extrémité, à la manière d'une liane se déployant. Le RPJ se compose de chambres pneumatiques réparties symétriquement le long du corps du robot : lorsqu'elles sont pressurisées, elles augmentent localement la rigidité en flexion sans interrompre la croissance continue du robot. Le système intègre un pilotage par tendons pour la direction et une station de base compacte permettant l'éversion en l'air. Les essais expérimentaux démontrent une capacité de transport de charge utile atteignant 202 g en espace libre, une rétention de forme améliorée en courbure, une déflexion gravitationnelle réduite sous charge, et une rétraction en cascade des modules. Ce résultat s'attaque à la limite structurelle fondamentale des robots vine : leur faible rigidité axiale les cantonne aujourd'hui essentiellement à la navigation passive dans des espaces confinés, où ils progressent sans effort mécanique significatif. En introduisant une rigidité sélective et localisée, le RPJ ouvre la voie à des tâches de manipulation active, tri d'objets, exploration adaptative en environnement non contraint, sans sacrifier la compliance globale qui fait la valeur de ces robots pour naviguer en milieu encombré. Les auteurs comparent les performances aux mécanismes par "layer jamming" (blocage par compression de couches), et les résultats sont jugés comparables, ce qui est notable : le layer jamming est jusqu'ici la référence pour ce type de rigidification variable dans les robots souples. Il faudra cependant attendre des validations sur des tâches réelles avant de parler de transfert industriel. Les robots vine sont étudiés depuis une dizaine d'années, notamment par les groupes de Stanford et de l'Università Sant'Anna di Pisa, pour des applications médicales et de recherche en environnements dangereux. L'approche RPJ proposée ici se distingue par son architecture modulaire et son bilan de pression modéré pour l'éversion, deux points qui facilitent une éventuelle industrialisation. Aucun partenaire industriel ni calendrier de commercialisation n'est mentionné dans ce papier de recherche fondamentale. Sur le front concurrentiel, les robots souples à rigidité variable intéressent aussi bien les fabricants d'endoscopes robotisés que les développeurs de bras collaboratifs légers ; des acteurs comme Festo ou des spin-offs universitaires européens suivent ce segment. La prochaine étape logique serait une démonstration sur des tâches de tri en conditions semi-réelles avec des charges et géométries variées.

UEL'Università Sant'Anna di Pisa (EU) est l'un des groupes de référence mondiaux sur les vine robots et Festo (acteur européen) surveille ce segment des robots souples à rigidité variable, mais ce papier arXiv ne génère pas d'impact opérationnel immédiat pour l'industrie française ou européenne.

RecherchePaper
1 source
Contrôle de densité multi-robots sûr et économe en énergie par optimisation sous contraintes EDP pour une autonomie longue durée
513arXiv cs.RO 

Contrôle de densité multi-robots sûr et économe en énergie par optimisation sous contraintes EDP pour une autonomie longue durée

Une équipe de chercheurs a publié le 22 avril 2026 (arXiv:2604.15524) un framework de contrôle de densité pour flottes de robots mobiles, conçu pour garantir simultanément la sécurité spatiale et la durabilité énergétique sur de longues durées d'autonomie. Le système encode le mouvement stochastique de chaque robot via l'équation de Fokker-Planck, une EDP (équation aux dérivées partielles) qui opère au niveau de la densité de population plutôt que robot par robot. Des fonctions de Lyapunov et des fonctions de barrière de contrôle (CBF) sont intégrées à cette EDP pour assurer le suivi d'une densité cible, l'évitement d'obstacles, et la suffisance énergétique sur plusieurs cycles de recharge. Le tout se résout comme un programme quadratique, ce qui permet une exécution en boucle fermée en temps réel. L'intérêt industriel est réel pour les déploiements AMR à grande échelle : gérer une flotte non plus comme une somme d'agents indépendants mais comme un champ de densité réduit la charge de calcul et offre des garanties formelles de sécurité collective. La prise en compte explicite des incertitudes de localisation et de mouvement, ainsi que des contraintes de recharge, répond à deux points de friction majeurs dans les déploiements logistiques longue durée. Les résultats sont toutefois issus de simulations étendues et d'une expérience multi-robot dont l'échelle n'est pas précisée dans le résumé, ce qui limite pour l'instant la portée des conclusions. Ce travail s'inscrit dans une tendance de fond qui cherche à étendre les méthodes formelles de contrôle (CBF, CLF) aux systèmes multi-agents à grande échelle, un terrain où des groupes comme le MIT CSAIL, Georgia Tech ou l'INRIA (côté européen) sont actifs. Les approches EDP pour flottes robotiques restent peu déployées industriellement malgré leur maturité théorique. Les prochaines étapes naturelles seraient une validation sur flottes réelles de taille significative, ainsi qu'une intégration dans des middlewares ROS 2 pour tester la robustesse hors laboratoire.

RecherchePaper
1 source
Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle
514arXiv cs.RO 

Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle

Une équipe de chercheurs a soumis fin avril 2026 sur arXiv (référence 2604.15339) un article proposant un cadre conceptuel unifié pour trois notions centrales de l'interaction humain-robot : l'incertitude, le flou et l'ambiguïté. Le constat de départ est empirique : dans la littérature HRI, ces trois termes sont régulièrement définis de manière contradictoire d'une étude à l'autre, voire utilisés comme synonymes. Les auteurs partent des définitions lexicographiques, analysent les distinctions et les relations entre ces concepts dans le contexte spécifique du HRI, illustrent chaque notion par des exemples concrets, puis démontrent comment ce socle cohérent permet de concevoir de nouvelles méthodes et d'évaluer les méthodologies existantes avec plus de rigueur. L'enjeu n'est pas seulement terminologique. Quand deux équipes utilisent le mot "ambiguïté" pour désigner des phénomènes différents, leurs résultats expérimentaux deviennent non comparables, et la capitalisation théorique du domaine ralentit. Pour un intégrateur ou un concepteur de systèmes robotiques interactifs, cette confusion a des conséquences pratiques : les métriques d'évaluation divergent, les benchmarks perdent leur valeur de référence, et le transfert de résultats de laboratoire vers des déploiements réels est fragilisé. En établissant des frontières claires entre ces trois concepts, le papier prépare le terrain pour des protocoles d'évaluation reproductibles et des méta-analyses plus robustes, deux prérequis pour une maturation industrielle du HRI. Ce travail s'inscrit dans un mouvement plus large de structuration académique du HRI, discipline jeune à l'intersection de la robotique, des sciences cognitives et de la linguistique. Le problème de l'incohérence terminologique y est identifié depuis plusieurs années, notamment dans des travaux sur la communication intentionnelle et la résolution de références entre humains et robots. Les auteurs ne proposent pas ici un nouveau système technique mais une infrastructure conceptuelle, ce qui est typiquement le type de contribution qui précède une normalisation de fait dans un domaine. Les prochaines étapes naturelles seraient l'adoption de ce cadre dans des conférences de référence comme HRI, RO-MAN ou HRI Workshop de l'IEEE, et son intégration dans des protocoles d'évaluation standardisés pour les assistants robotiques en environnement industriel ou de service.

RecherchePaper
1 source
Modèle de diffusion adaptatif pour la manipulation robotique efficace (VADF)
515arXiv cs.RO 

Modèle de diffusion adaptatif pour la manipulation robotique efficace (VADF)

Une équipe de chercheurs a publié sur arXiv (référence 2604.15938) une proposition architecturale baptisée VADF (Vision-Adaptive Diffusion Policy Framework), visant à corriger deux défauts structurels des politiques de diffusion appliquées à la manipulation robotique. Le premier défaut est le déséquilibre de classe dû à l'échantillonnage uniforme lors de l'entraînement : le modèle traite indistinctement les exemples faciles et difficiles, ce qui ralentit la convergence. Le second est le taux d'échec à l'inférence par dépassement de délai, un problème opérationnel concret dès qu'on sort du laboratoire. VADF intègre deux composants : l'ALN (Adaptive Loss Network), un MLP léger qui prédit en temps réel la difficulté de chaque pas d'entraînement et applique un suréchantillonnage des régions à forte perte via du hard negative mining ; et l'HVTS (Hierarchical Vision Task Segmenter), qui décompose une instruction de haut niveau en sous-tâches visuellement guidées, en assignant des schedules de bruit courts aux actions simples et des schedules longs aux actions complexes, réduisant ainsi la charge computationnelle à l'inférence. L'architecture est conçue model-agnostic, c'est-à-dire intégrable à n'importe quelle implémentation existante de politique de diffusion. L'intérêt pour un intégrateur ou un responsable R&D est avant tout pratique : les politiques de diffusion souffrent de coûts d'entraînement élevés et d'une fiabilité insuffisante en déploiement réel, ce qui freine leur adoption industrielle. Si les gains annoncés par VADF se confirment sur des benchmarks indépendants, la réduction des étapes de convergence représenterait un levier significatif sur les coûts GPU, et la diminution des timeouts à l'inférence améliorerait directement la cadence opérationnelle. Il faut toutefois noter que ce travail est un preprint non évalué par des pairs, sans chiffres de performance comparatifs publiés dans l'article lui-même. Les politiques de diffusion ont émergé comme méthode de choix pour l'imitation comportementale en robotique depuis les travaux de Chi et al. en 2023 (Diffusion Policy, Columbia), avant d'être intégrées dans des architectures plus larges comme Pi-0 de Physical Intelligence ou GR00T N2 de NVIDIA. La principale tension du domaine reste le sim-to-real gap et la robustesse à l'inférence en conditions réelles, terrain sur lequel VADF prétend apporter une contribution. Les prochaines étapes logiques seraient une validation sur des benchmarks standard (RLBench, LIBERO) et une comparaison directe avec ACT ou Diffusion Policy de référence.

RecherchePaper
1 source
Localisation par angle et contrôle de rigidité pour réseaux multi-robots
516arXiv cs.RO 

Localisation par angle et contrôle de rigidité pour réseaux multi-robots

Des chercheurs ont publié sur arXiv (référence 2604.11754v2) une contribution théorique et algorithmique portant sur la localisation par mesures d'angles et le maintien de rigidité dans les réseaux multi-robots, en 2D et en 3D. Le résultat central établit une équivalence formelle entre rigidité angulaire et rigidité de type "bearing" (orientation relative) pour des graphes de détection dirigés avec mesures en référentiel embarqué : un système dans SE(d) est infinitésimalement rigide au sens bearing si et seulement s'il est infinitésimalement rigide au sens angulaire et que chaque robot acquiert au moins d-1 mesures de bearing (d valant 2 ou 3). À partir de cette base, les auteurs proposent un schéma de localisation distribué et démontrent sa stabilité exponentielle locale sous des topologies de détection commutantes, avec comme seule hypothèse la rigidité angulaire infinitésimale sur l'ensemble des topologies visitées. Une nouvelle métrique, la valeur propre de rigidité angulaire, est introduite pour quantifier le degré de rigidité du réseau, et un contrôleur décentralisé par gradient est proposé pour maintenir cette rigidité tout en exécutant des commandes de mission. Les résultats sont validés par simulation. L'intérêt pratique de ce travail réside dans le choix des mesures angulaires plutôt que des distances ou des orientations absolues : les angles entre vecteurs de direction peuvent être extraits directement depuis des caméras embarquées à bas coût, sans capteur de distance actif ni accès GPS. Pour les intégrateurs de systèmes multi-robots, notamment en essaims de drones ou en robotique entrepôt avec coordination décentralisée, la robustesse sous topologies commutantes est critique, car les lignes de vue entre agents changent constamment. Le contrôleur proposé adresse ce problème en maintenant activement une configuration spatiale suffisamment rigide pour garantir l'observabilité du réseau, ce qui évite les dégradations silencieuses de localisation que l'on observe dans les déploiements réels. C'est une avancée sur le problème dit du "rigidity maintenance", encore peu traité dans la littérature avec des garanties formelles en 3D. La rigidité de réseau comme fondation pour la localisation distribuée est un domaine actif depuis les travaux fondateurs sur la formation control et les frameworks d'Henneberg dans les années 2010. Les approches concurrentes incluent la localisation par distances (nécessitant UWB ou radar), par bearings seuls (plus sensible aux ambiguïtés), ou par fusion IMU/SLAM embarqué par robot, chacune avec ses propres hypothèses de connectivité et de coût matériel. Ce papier se positionne dans le créneau "caméra seule, pas de métadonnées globales", pertinent pour les petits drones ou les robots à budget capteur contraint. Aucun déploiement ni partenaire industriel n'est mentionné, il s'agit d'une contribution académique pure. Les suites naturelles incluraient une validation sur plateforme physique (type Crazyflie ou quadrupèdes en formation) et l'extension aux perturbations de mesures bruitées en environnement non contrôlé.

RecherchePaper
1 source
Créer l'écosystème d'agents ouverts ensemble : Présentation d'OpenEnv
517HuggingFace Blog 

Créer l'écosystème d'agents ouverts ensemble : Présentation d'OpenEnv

Dans un effort concerté, des chercheurs et des développeurs ont présenté OpenEnv, un environnement open-source destiné à favoriser le développement d'agents intelligents et leur interaction dans diverses simulations. OpenEnv, soutenu par la fondation OpenAI, vise à standardiser les cadres d'entraînement pour les agents artificiels, rendant ainsi le processus d'apprentissage plus transparent et collaboratif. Ce projet inclut des simulations comme Roboschool et Meta-World, et compte des contributeurs de renom comme le laboratoire d'intelligence artificielle de l'Université de California, Berkeley.

UEOpenEnv, un environnement open-source pour agents intelligents, soutenu par la fondation OpenAI, impacte les entreprises européennes de l'IA en standardisant les cadres d'entraînement, potentiellement facilitant la conformité avec l'AI Act et renforçant la transparence, tout en favorisant la collaboration et l'innovation dans des secteurs comme la robotique et la simulation.

RechercheOutil
1 source
Robot Inference Asynchrone: Découplage Prédiction et Exécution d'Actions
518HuggingFace Blog 

Robot Inference Asynchrone: Découplage Prédiction et Exécution d'Actions

Titre: Inférence robotique asynchrone : découplage de la prédiction et de l'exécution des actions Résumé : Cet article explore le concept d'inférence robotique asynchrone, qui sépare la prédiction des actions par un robot (modélisation) de leur exécution réelle (contrôle). Cette approche vise à améliorer la flexibilité et la robustesse des systèmes robotiques en permettant une adaptation plus rapide aux changements dans l'environnement ou les tâches. Le travail met en évidence l'efficacité de cette méthode à travers des expériences, montrant une amélioration dans la précision et la vitesse des réponses robotiques.

UEL'article présente une technologie d'inférence robotique asynchrone, qui pourrait améliorer la flexibilité et la robustesse des systèmes robotiques utilisés par des entreprises françaises comme Kuka ou ABB Robotics, en leur permettant de s'adapter plus rapidement aux changements environnementaux ou tâchés, potentiellement renforçant leur compétitivité dans l'UE en respectant les normes RGPD et AI Act en séparant la modélisation prédictive de l'exécution, garantissant ainsi une utilisation responsable et éthique de l'IA.

RecherchePaper
1 source
DABStep: Benchmark de l'Agent de Données pour la Raisonnement en Plusieurs Étapes
519HuggingFace Blog 

DABStep: Benchmark de l'Agent de Données pour la Raisonnement en Plusieurs Étapes

Titre: DABStep - Banc d'essai pour agents de données pour la raisonnement à plusieurs étapes DABStep est un outil de banc d'essai conçu pour évaluer les capacités de raisonnement à plusieurs étapes des agents de données. Il simule des scénarios complexes où les agents doivent effectuer une série d'actions pour atteindre un objectif, comme la planification d'itinéraires ou la gestion de ressources. Les performances sont mesurées en termes de précision, d'efficacité et de robustesse. Les tests incluent des cas où les agents doivent gérer des informations incertaines ou changeantes.

UEDABStep, un outil de banc d'essai pour agents de données, pourrait améliorer la performance des systèmes de réalité augmentée et de navigation français en optimisant les algorithmes de planification d'itinéraires, conformes au RGPD en gérant efficacement les données personnelles.

RechercheOutil
1 source