Aller au contenu principal

Recherche — page 8

426 articles · page 8 sur 9

Publications scientifiques en robotique : arXiv cs.RO, ICRA, IROS, Humanoids, CoRL — nouveaux algorithmes, benchmarks et datasets.

Alignement de sécurité des modèles VLA par apprentissage contraint : le projet SafeVLA
351arXiv cs.RO RechercheOpinion

Alignement de sécurité des modèles VLA par apprentissage contraint : le projet SafeVLA

Des chercheurs, vraisemblablement affiliés à l'Université de Pékin (l'URL du projet pointe vers pku-safevla.github.io), ont publié en mars 2025 SafeVLA, une méthode d'alignement sécurisé pour les modèles vision-langage-action (VLA) déployés sur robots physiques. L'approche, baptisée ISA (Integrated Safety Approach), repose sur le paradigme des processus de décision de Markov contraints (CMDP) et combine trois étapes : modélisation formelle des exigences de sécurité, élicitation active de comportements dangereux, puis optimisation min-max de la politique robot via du renforcement contraint. Sur des tâches de manipulation mobile à long horizon, SafeVLA réduit le coût cumulé des violations de sécurité de 83,58 % par rapport à la méthode de référence state-of-the-art, tout en améliorant simultanément le taux de succès des tâches de 3,85 points. Les données, modèles et benchmark associés sont publiés en open source. Ce résultat est notable parce qu'il adresse directement le principal frein à la commercialisation des VLA en environnement industriel : la garantie de comportement sûr hors distribution. Jusqu'ici, les politiques générales de type pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA) montraient des performances impressionnantes en laboratoire mais offraient peu de garanties formelles sur les scénarios de défaillance extrêmes, les cas limites ou les perturbations inattendues. SafeVLA propose un cadre d'assurance quantifiable, avec une généralisation démontrée aux perturbations out-of-distribution, ce qui intéresse directement les intégrateurs industriels et les COO qui exigent des SLA de sécurité avant tout déploiement en cellule humaine ou en espace partagé. L'amélioration simultanée du taux de succès contredit l'hypothèse courante selon laquelle la sécurité contrainte dégrade nécessairement la performance. Les VLA ont connu une accélération significative depuis 2023 avec des travaux fondateurs comme RT-2 (Google DeepMind) et OpenVLA, mais la question de leur alignement sécurisé pour une utilisation réelle restait largement ouverte, la plupart des équipes se concentrant sur les capacités génératives plutôt que sur les garanties de comportement. SafeVLA s'inscrit dans un mouvement plus large de formalisation de la sécurité robotique, en parallèle des travaux de Physical Intelligence sur pi-0, de 1X Technologies ou de Figure AI avec Figure 03. Aucun partenaire industriel ni calendrier de déploiement n'est mentionné dans la publication : il s'agit d'une contribution académique avec benchmark public, pas d'un produit shipé. Les prochaines étapes naturelles seraient l'intégration de cette approche dans des architectures VLA commerciales et sa validation sur des plateformes humanoïdes à grande échelle.

UELes résultats de SafeVLA pourraient alimenter les travaux de normalisation de la sécurité des VLA en Europe (AI Act, certification robots collaboratifs), mais aucun acteur européen n'est impliqué directement dans cette publication académique.

1 source
ReconVLA : un cadre VLA guidé par l'incertitude et la détection des défaillances pour le contrôle robotique
352arXiv cs.RO 

ReconVLA : un cadre VLA guidé par l'incertitude et la détection des défaillances pour le contrôle robotique

Des chercheurs ont mis en ligne en avril 2026 sur arXiv (référence 2604.16677) un framework nommé ReconVLA, conçu pour doter les modèles vision-langage-action (VLA) d'une capacité jusque-là absente : estimer leur propre degré de confiance avant d'agir. ReconVLA applique la prédiction conforme (conformal prediction) directement sur les tokens d'action produits par un VLA pré-entraîné, sans modification ni réentraînement du modèle. Cette couche génère des intervalles d'incertitude calibrés, corrélés à la qualité d'exécution et au taux de succès de la tâche. Le même mécanisme est étendu à l'espace d'état du robot pour détecter des configurations anormales avant qu'une défaillance ne survienne. L'évaluation couvre des tâches de manipulation variées en simulation et sur robot réel. L'absence de mesure de confiance calibrée est aujourd'hui l'un des principaux verrous à l'industrialisation des VLA. Un modèle comme Pi-0 (Physical Intelligence), OpenVLA ou GR00T N2 (NVIDIA) peut produire une action avec une assurance apparente même lorsque la scène perçue sort de sa distribution d'entraînement. ReconVLA contourne ce problème sans toucher au modèle sous-jacent : les intégrateurs peuvent envelopper n'importe quel VLA existant avec cette surcouche de sécurité. En pratique, le framework réduit les erreurs catastrophiques et fournit un signal exploitable par les superviseurs humains ou les systèmes de fail-safe industriels. Il convient de souligner que les résultats présentés restent à l'échelle laboratoire, sans validation sur des lignes de production réelles. La prédiction conforme est une méthode statistique bien établie dans la communauté du machine learning certifié, mais son application aux VLA robotiques reste émergente. Ces architectures ont connu une accélération notable depuis 2023 avec RT-2 (Google DeepMind), puis OpenVLA, Pi-0 et GR00T N2, chacune promettant un contrôle généraliste sans garantie formelle de comportement hors distribution. ReconVLA s'inscrit dans une tendance visant à rendre ces modèles auditables et déployables dans des contextes à risque industriel ou réglementé. Les prochaines étapes naturelles incluent l'intégration avec des pipelines temps réel et la validation sur des horizons de tâches plus longs, domaines où la calibration de l'incertitude devient critique pour les décideurs industriels.

UEImpact indirect : si validé à l'échelle industrielle, ce framework faciliterait le déploiement de VLA dans des environnements réglementés européens (AI Act, sécurité machines), sans nécessiter de réentraînement des modèles existants.

RechercheOpinion
1 source
MM-Hand : une main robotique dextère modulaire à 21 degrés de liberté avec actuation déportée
353arXiv cs.RO 

MM-Hand : une main robotique dextère modulaire à 21 degrés de liberté avec actuation déportée

Des chercheurs du MMlab (Hong Kong) ont publié les spécifications complètes de MM-Hand, une main robotique à actionnement tendineux déporté dotée de 21 degrés de liberté (DOF). L'architecture centrale repose sur la délocalisation des moteurs vers la base du robot ou un hub moteur externe, les tendons transitant par des gaines flexibles jusqu'aux doigts. La main intègre des doigts à retour par ressort, des structures palmaire et digitale modulaires imprimées en 3D, des connecteurs tendineux à remplacement rapide, ainsi qu'un système de captation multimodale comprenant des encodeurs articulaires, des capteurs tactiles, un retour d'effort côté moteur, et une caméra stéréo embarquée dans la paume. Les expériences publiées rapportent une force de 25 N en bout de doigt via une transmission tendon-gaine d'un mètre, et les essais en boucle fermée ont été conduits aussi bien bras statique que bras en mouvement. L'ensemble des designs matériels et logiciels est publié en open source. Ce travail s'attaque à un verrou classique de la manipulation dextère à haute densité de DOF : l'encombrement thermique et massique des actionneurs embarqués dans la main. En déportant les moteurs, MM-Hand libère le volume intra-main pour des capteurs et des mécanismes supplémentaires, ce qui change concrètement l'équation pour les laboratoires de recherche en manipulation. La combinaison vision stéréo palmaire et toucher tactile dans un seul effecteur ouvre la voie à des politiques d'apprentissage multimodal (VLA, diffusion policies) sans avoir à multiplier les capteurs externes. La publication open source de la mécanique et du firmware est un signal fort : les auteurs misent sur la réplication communautaire pour valider le passage à l'échelle, ce que les démonstrations en laboratoire seul ne peuvent pas prouver. MM-Hand s'inscrit dans un effort plus large d'industrialisation de la main robotique dextère, un segment où l'on retrouve Shadow Robotics (UK, 24-DOF, câbles), Inspire Robots (Chine, utilisée sur Unitree H1 et G1) et Wonik Robotics (Allegro Hand, 16-DOF, courroies). La différenciation revendiquée de MM-Hand est sa maintenabilité modulaire et son coût de reproduction accessible via impression 3D. Le MMlab n'a pas annoncé de partenariat industriel ni de feuille de route de commercialisation : il s'agit pour l'instant d'une plateforme de recherche publiée, pas d'un produit shipé.

UELes laboratoires européens de recherche en manipulation dextère peuvent répliquer MM-Hand grâce à la publication open source complète (mécanique + firmware), mais aucun partenariat ni déploiement européen n'est annoncé par le MMlab.

RecherchePaper
1 source
Auto-reconnaissance sensorimotrice dans les robots pilotés par des LLM multimodaux
354arXiv cs.RO 

Auto-reconnaissance sensorimotrice dans les robots pilotés par des LLM multimodaux

Des chercheurs ont publié sur arXiv (référence 2505.19237) une étude portant sur la capacité des grands modèles de langage multimodaux (LLM multimodaux) à développer une forme de conscience proprioceptive lorsqu'ils sont embarqués sur un robot mobile autonome. L'équipe a intégré un LLM multimodal directement dans la boucle de contrôle d'un robot mobile, puis a évalué si le système pouvait construire une représentation interne de son propre corps dans l'environnement, sans programmation explicite de cette capacité. Les résultats montrent que le robot démontre trois propriétés distinctes : une conscience environnementale (perception cohérente du monde extérieur), une auto-identification (le système infère lui-même sa nature robotique et ses caractéristiques de mouvement), et une conscience prédictive (anticipation de ses propres états futurs). Les chercheurs ont utilisé la modélisation par équations structurelles (SEM) pour quantifier comment l'intégration sensorielle influence les différentes dimensions du "soi minimal", et ont conduit des tests d'ablation sur les entrées sensorielles pour isoler le rôle de la mémoire épisodique et structurée. Ces résultats ont des implications concrètes pour les intégrateurs et les équipes de développement travaillant sur des architectures d'agents incarnés. Jusqu'ici, la conscience de soi dans les systèmes robotiques reposait sur des modèles cinématiques codés en dur ou des estimateurs d'état dédiés. Démontrer qu'un LLM peut inférer sa propre nature physique à partir de l'expérience sensorimotrice ouvre la voie à des robots plus adaptatifs, capables de recalibrer leur comportement sans reconfiguration manuelle. Les tests d'ablation confirment que les capteurs se compensent mutuellement en cas de défaillance partielle, ce qui est un indicateur de robustesse opérationnelle réelle, pas seulement de performance en conditions idéales. La mémoire épisodique s'avère indispensable, ce qui renforce l'intérêt des architectures de type RAG (retrieval-augmented generation) pour la robotique embarquée. Ce travail s'inscrit dans un mouvement plus large visant à unifier les capacités cognitives des LLM avec l'action physique, un champ que des acteurs comme Physical Intelligence (Pi-0), Figure AI ou le projet GR00T de NVIDIA explorent depuis 2023-2024 sous l'angle des architectures VLA (Vision-Language-Action). La particularité ici est de remonter à une couche plus fondamentale : non pas "comment le robot agit" mais "comment le robot se sait robot", ce que les philosophes cognitifs appellent le "soi minimal". Aucun acteur européen n'est directement cité dans ce papier académique, mais des laboratoires comme celui de Wandercraft à Paris ou des groupes de recherche en robotique cognitive à l'INRIA travaillent sur des questions adjacentes. La prochaine étape naturelle sera de tester cette architecture sur des plateformes humanoïdes à degrés de liberté élevés, où l'auto-modélisation corporelle devient critique pour la sécurité et la planification de mouvement.

UEAucun acteur européen n'est impliqué directement, mais l'INRIA et des groupes de robotique cognitive français travaillent sur des problématiques adjacentes susceptibles de bénéficier de ces résultats sur l'auto-modélisation embarquée.

RechercheOpinion
1 source
LongBench : évaluation des politiques de manipulation robotique sur des tâches réelles à horizon long
355arXiv cs.RO 

LongBench : évaluation des politiques de manipulation robotique sur des tâches réelles à horizon long

Une équipe de chercheurs a publié en avril 2026 LongBench, un benchmark conçu pour évaluer les politiques de manipulation robotique sur des tâches longues et enchaînées dans le monde réel. Contrairement à la majorité des benchmarks existants, LongBench repose sur plus de 1 000 épisodes exécutés en conditions réelles, et non en simulation. Il se structure autour de deux régimes complémentaires : les tâches Context-Independent, où l'état du monde est entièrement observable, et les tâches Context-Dependent, où le robot doit gérer une ambiguïté sur l'état ou l'intention. Les tâches sont organisées en sous-ensembles ciblant des capacités spécifiques (robustesse d'exécution, cohérence temporelle, raisonnement contextuel), permettant un diagnostic fin des sources d'échec. Six politiques de l'état de l'art ont été évaluées sur ce protocole, sans qu'un seul facteur dominant n'explique les dégradations de performance sur les horizons longs. Ces résultats remettent en question une hypothèse courante dans le domaine : celle selon laquelle améliorer la mémoire ou le contexte historique suffirait à résoudre les échecs en manipulation longue durée. LongBench montre que dans les environnements pleinement observables, c'est la robustesse d'exécution, c'est-à-dire la capacité du robot à répéter fidèlement une séquence motrice sur des dizaines de pas, qui domine les performances, et non la gestion du contexte. À l'inverse, dans les scénarios ambigus, les méthodes à mémoire n'apportent pas d'amélioration systématique : la difficulté contextuelle varie fortement selon les tâches, ce qui suggère qu'il n'existe pas de solution générique. Pour les intégrateurs et les équipes R&D qui évaluent des politiques VLA (Vision-Language-Action) ou des architectures de contrôle diffusion, ce benchmark offre un protocole de diagnostic plus fin que les métriques de succès agrégé habituelles. Le benchmark s'inscrit dans un effort plus large de la communauté robotique pour dépasser les évaluations en simulation, dont le sim-to-real gap reste un problème structurel non résolu. Plusieurs benchmarks récents, comme DROID ou Open X-Embodiment, ont posé des bases de données multi-robots, mais peu proposent une décomposition mécaniste des sources d'échec sur des horizons longs. LongBench se positionne comme un outil de diagnostic complémentaire, agnostique à l'architecture, applicable aussi bien aux politiques de type ACT, Diffusion Policy qu'aux approches VLA. Les auteurs n'annoncent pas de déploiement industriel associé : il s'agit d'un outil de recherche, pas d'un produit. Les prochaines étapes attendues incluent l'extension à d'autres morphologies robotiques et l'intégration de tâches bi-manuelles, qui représentent le prochain mur de complexité pour la manipulation longue durée.

RecherchePaper
1 source
InternScenes : un jeu de données de scènes intérieures simulables à grande échelle avec des agencements réalistes
356arXiv cs.RO 

InternScenes : un jeu de données de scènes intérieures simulables à grande échelle avec des agencements réalistes

Une équipe de chercheurs a publié InternScenes, un jeu de données massif de scènes d'intérieur simulables, conçu pour l'entraînement des agents en Embodied AI. Le dataset agrège environ 40 000 scènes issues de trois sources hétérogènes : scans du monde réel, scènes générées procéduralement et environnements créés par des designers. Il couvre 15 types de pièces et 288 classes d'objets, pour un total de 1,96 million d'objets 3D. La densité est un point distinctif : chaque région contient en moyenne 41,5 objets, incluant délibérément les petits éléments (tasses, télécommandes, livres) souvent absents des datasets existants. Le pipeline de traitement comprend la création de répliques real-to-sim pour les scans, l'ajout d'objets interactifs, et une résolution des collisions par simulation physique. Le tout sera publié en open source, avec modèles et benchmarks associés. L'intérêt pour les équipes travaillant sur la robotique incarnée et la navigation autonome est direct : les datasets existants souffrent soit d'un manque d'échelle, soit de layouts artificiellement épurés qui ne reflètent pas la réalité d'un environnement domestique ou industriel. Un robot entraîné dans des scènes stériles échoue face au désordre ordinaire d'un bureau ou d'une cuisine. InternScenes attaque ce sim-to-real gap par la densité et la diversité des layouts. Les deux benchmarks proposés, génération de layouts et navigation point-goal, montrent que les scènes complexes posent des défis inédits, et que la montée en échelle du dataset améliore les performances sur les deux tâches, un signal que le volume de données simulées reste un levier non saturé pour ces modèles. Dans le paysage de l'Embodied AI, les datasets de référence comme Habitat-Matterport 3D (HM3D, ~1 000 scènes) ou MultiScan restaient très limités en volume et en densité d'objets. Les laboratoires universitaires et industriels qui développent des VLA (Vision-Language-Action models) ou des agents de navigation domestique manquaient d'un terrain d'entraînement à grande échelle réaliste. InternScenes comble partiellement ce vide, sans toutefois aborder les environnements industriels ou extérieurs. La prochaine étape logique sera de voir si des équipes comme celles derrière GR00T N2 (NVIDIA) ou Pi-0 (Physical Intelligence) intègrent ce type de données synthétiques denses dans leurs pipelines de pré-entraînement, ce que les auteurs n'annoncent pas explicitement à ce stade.

RecherchePaper
1 source
ICAT : tests adaptatifs fondés sur des incidents réels pour la prédiction de risques physiques dans les modèles du monde incarnés
357arXiv cs.RO 

ICAT : tests adaptatifs fondés sur des incidents réels pour la prédiction de risques physiques dans les modèles du monde incarnés

Des chercheurs ont publié sur arXiv (référence 2604.16405) un système d'évaluation baptisé ICAT, Incident-Case-Grounded Adaptive Testing, ciblant une lacune précise des modèles de monde vidéo-génératifs : leur capacité à prédire les risques physiques dans des contextes d'action incarnée. Ces modèles, utilisés comme simulateurs neuronaux pour la planification et l'apprentissage de politiques en robotique embarquée, sont soumis à des scénarios de risque construits à partir de rapports d'incidents réels et de manuels de sécurité. ICAT structure ces sources en mémoires de risques, puis les récupère et les compose pour générer des cas de test avec chaînes causales et étiquettes de sévérité. Les expériences menées sur un benchmark dérivé de cette méthode révèlent que les modèles de monde courants omettent fréquemment les mécanismes déclencheurs des situations dangereuses et mal-calibrent systématiquement le niveau de sévérité des conséquences. Ce résultat a des implications directes pour quiconque envisage d'utiliser des world models comme substrat d'entraînement ou de planification pour des systèmes robotiques en environnement réel. Un modèle qui minimise ou ignore les signaux de danger dans ses rollouts imaginés peut inculquer des préférences comportementales non sûres à la politique apprise, sans que l'ingénieur ne le détecte en phase de simulation. Le gap sim-to-real prend ici une dimension nouvelle : ce n'est plus seulement une question de fidélité physique (textures, friction, dynamique), mais de fiabilité dans la représentation des conséquences graves. Pour les intégrateurs qui s'appuient sur des VLA (Vision-Language-Action models) entraînés sur des trajectoires synthétiques, c'est un signal d'alerte concret sur l'absence de métriques de sécurité standardisées dans les pipelines d'évaluation actuels. Les modèles de monde vidéo-génératifs, dont UniSim, DreamerV3, ou les approches issues de Genie et GameNGen, ont connu un regain d'intérêt comme alternatives aux simulateurs physiques classiques (MuJoCo, Isaac Sim), notamment pour leur capacité à généraliser à partir de vidéos brutes. Mais leur évaluation reste dominée par des métriques visuelles (FID, FVD) peu corrélées à la sécurité opérationnelle. ICAT propose un protocole ancré dans les données d'incidents industriels, ce qui le différencie des benchmarks synthétiques existants. Aucun déploiement ni partenariat industriel n'est annoncé à ce stade ; il s'agit d'une contribution académique, et la robustesse du benchmark lui-même reste à valider sur un périmètre de modèles plus large.

RechercheOpinion
1 source
EgoWalk : un jeu de données multimodal pour la navigation robotique en conditions réelles
358arXiv cs.RO 

EgoWalk : un jeu de données multimodal pour la navigation robotique en conditions réelles

Une équipe de chercheurs a publié EgoWalk, un dataset multimodal de 50 heures de navigation humaine destiné à entraîner des algorithmes de navigation robotique en conditions réelles. Les données ont été collectées dans une grande variété d'environnements intérieurs et extérieurs, sur plusieurs saisons et sites géographiques différents. Le dataset comprend les données brutes ainsi qu'un format prêt pour l'apprentissage par imitation (Imitation Learning), accompagné de pipelines automatisés générant deux types de sous-datasets dérivés : des annotations d'objectifs en langage naturel et des masques de segmentation de traversabilité. L'ensemble des pipelines de traitement et la description de la plateforme matérielle utilisée pour la collecte sont publiés en open source. L'intérêt principal d'EgoWalk réside dans la rareté des datasets de navigation en conditions non contrôlées, à grande échelle et couvrant plusieurs saisons. La majorité des systèmes de navigation robotique actuels souffrent d'un écart sim-to-real persistant, faute de données réelles suffisamment diversifiées. En proposant simultanément des annotations langage naturel et des masques de traversabilité générés automatiquement, EgoWalk vise à réduire le coût de labellisation manuelle qui freine le développement de modèles vision-langage-action (VLA) pour la navigation outdoor. La publication open source des pipelines permet aux équipes de réplication de reconstruire des datasets similaires sur leur propre plateforme, ce qui est un signal positif pour la reproductibilité dans le domaine. La navigation autonome en environnements non structurés reste l'un des défis centraux de la robotique mobile, que ce soit pour les robots de livraison, les plateformes de surveillance ou les assistants mobiles. EgoWalk s'inscrit dans un mouvement plus large de constitution de datasets ego-centriques, aux côtés d'initiatives comme SCAND (UT Austin) ou des travaux de Boston Dynamics et de Google DeepMind sur la navigation en extérieur. Le fait que les données soient collectées du point de vue humain, plutôt que depuis un robot, soulève la question du transfert de domaine, que les auteurs reconnaissent implicitement en proposant des benchmarks et études de diversité. Les prochaines étapes naturelles seraient la validation sur des plateformes robotiques réelles et l'intégration dans des architectures de type foundation model pour la navigation.

RechercheActu
1 source
Assemblage robotique à contacts multiples dans la construction par politique de diffusion
359arXiv cs.RO 

Assemblage robotique à contacts multiples dans la construction par politique de diffusion

Des chercheurs ont publié sur arXiv (arXiv:2511.17774, version 3) une étude portant sur l'application de l'apprentissage par diffusion à l'assemblage robotique dans le secteur de la construction. Le cas d'usage retenu est l'assemblage tenon-mortaise en bois, une jonction à contact riche soumise à des contraintes de friction et de géométrie strictes, avec des jeux inférieurs au millimètre. Les politiques de diffusion sensori-motrices ont été entraînées à partir de démonstrations téléopérées collectées sur un poste de travail robotique industriel équipé de capteurs force/couple. L'évaluation s'est déroulée en deux phases : une baseline en conditions nominales et un test de robustesse avec des perturbations positionnelles aléatoires allant jusqu'à 10 mm, soit un ordre de grandeur au-delà de la tolérance d'assemblage. La politique la plus performante atteint 100 % de taux de succès en conditions nominales et 75 % en moyenne sous perturbation. Ce résultat est notable car il adresse directement un verrou industriel structurel : l'accumulation de tolérances dans la construction empêche depuis longtemps l'automatisation fiable des tâches d'assemblage à contact. Le fait qu'une politique diffusion parvienne à compenser des désalignements de 10 mm pour des jeux sub-millimétriques suggère que ces architectures apprennent implicitement une stratégie de compliance active via le retour d'effort, sans modélisation géométrique explicite. Pour un intégrateur industriel ou un bureau de méthodes, cela signifie que le sim-to-real gap sur des tâches de précision en construction pourrait être en partie résorbé par l'apprentissage par imitation couplé à la force/couple, sans recalibration manuelle systématique. L'assemblage tenon-mortaise n'est pas un choix anodin : cette technique millénaire est revenue en force dans la construction bois massive (CLT, charpente lamellée-croisée), un segment en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann. Les politiques de diffusion appliquées à la robotique manipulatrice ont été popularisées par des travaux comme le Diffusion Policy de Chi et al. (2023, Columbia/Toyota) et sont désormais explorées par des labos comme Physical Intelligence (pi) avec Pi-0, ou par Boston Dynamics Research. Cette étude se distingue en ciblant explicitement la construction industrielle plutôt que la cuisine ou la logistique. La prochaine étape logique serait un déploiement en conditions chantier réelles, avec variation de matériaux et de géométries, ce que les auteurs n'ont pas encore testé.

UELe segment construction bois massive (CLT, charpente lamellée-croisée) est en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann ; une automatisation fiable des assemblages à contact ouvrirait une voie d'industrialisation directement applicable sur les chantiers européens.

RecherchePaper
1 source
Préentraînement séparé des dynamiques directe et inverse pour un apprentissage robotique découplé
360arXiv cs.RO 

Préentraînement séparé des dynamiques directe et inverse pour un apprentissage robotique découplé

Des chercheurs ont publié le 23 avril 2026 sur arXiv un article présentant DeFI (Decoupled visual Forward and Inverse dynamics pretraining), un framework d'apprentissage pour robots généralistes qui dissocie explicitement la prédiction visuelle de la prédiction d'actions motrices. L'architecture repose sur deux modules distincts : le General Forward Dynamics Model (GFDM), pré-entraîné sur des vidéos humaines et robotiques pour anticiper l'évolution visuelle d'une scène, et le General Inverse Dynamics Model (GIDM), entraîné par auto-supervision pour inférer des "actions latentes" à partir de transitions vidéo non annotées. Les deux modules sont ensuite fusionnés dans une architecture unifiée et affinés conjointement sur des tâches cibles. Sur le benchmark CALVIN ABC-D, DeFI atteint une longueur de tâche moyenne de 4,51, un score de 51,2 % sur SimplerEnv-Fractal, et un taux de succès de 81,3 % en déploiement réel, surpassant selon les auteurs les méthodes antérieures sur chacun de ces indicateurs. L'enjeu technique central que DeFI prétend résoudre est le "sim-to-real gap" structurel propre aux modèles VLA classiques : ces derniers entraînent conjointement la prédiction d'images 2D et la génération d'actions 3D, deux objectifs dont les gradients entrent en conflit. La dissociation proposée permet surtout d'exploiter des vidéos web à grande échelle sans annotation d'actions, une ressource quasi-illimitée comparée aux datasets robotiques labellisés, rares et coûteux. Pour les intégrateurs et les équipes R&D industrielles, cela signifie potentiellement réduire le coût de collecte de données de démonstration, un goulot d'étranglement bien documenté dans le déploiement de robots manipulateurs polyvalents. DeFI s'inscrit dans une dynamique de recherche très active autour des VLA, portée notamment par Pi-0 de Physical Intelligence, GR00T N2 de NVIDIA et les travaux OpenVLA. La principale limite à évaluer ici est celle de tout papier arXiv sans validation industrielle externe : les 81,3 % en "déploiement réel" correspondent à un environnement de laboratoire contrôlé, pas à une ligne de production. Les benchmarks CALVIN et SimplerEnv sont désormais saturés par de nombreuses méthodes concurrentes, ce qui en rend l'interprétation délicate sans contexte de variance et de répétabilité. Aucun partenariat industriel ni timeline de commercialisation n'est mentionné dans l'article.

RechercheActu
1 source
Apprentissage rapide par simulation GPU pour la manipulation de matériaux déformables en quelques minutes
361arXiv cs.RO 

Apprentissage rapide par simulation GPU pour la manipulation de matériaux déformables en quelques minutes

Une équipe de chercheurs a publié fin avril 2026 FLASH (Fast Learning via GPU-Accelerated Simulation), un simulateur physique conçu nativement pour GPU, ciblant la manipulation d'objets déformables en contact riche. Le framework repose sur un solveur NCP (Nonlinear Complementarity Problem) qui impose simultanément les contraintes de contact et de déformation, redessiné de zéro pour exploiter le parallélisme fin des architectures GPU modernes, incluant la gestion optimisée des collisions et les layouts mémoire adaptés. Sur un seul RTX 5090, FLASH atteint plus de 3 millions de degrés de liberté simulés à 30 images par seconde. Des politiques entraînées exclusivement sur données synthétiques générées par FLASH, en quelques minutes d'entraînement, permettent un transfert sim-to-réel zéro-shot validé sur robots physiques pour des tâches de pliage de serviettes et de vêtements, sans aucune démonstration en conditions réelles. L'enjeu n'est pas anodin : la manipulation d'objets déformables représente l'un des derniers grands verrous du robot learning industriel. Les frameworks existants comme Isaac Sim (NVIDIA) excellent sur la cinématique rigide et la locomotion, mais les matériaux souples imposent des géométries en mutation continue, des milliers de vertices et des contraintes de contact instables qui rendent la simulation précise et rapide quasi incompatible. FLASH contourne ce problème non pas en portant un solveur SIMD classique sur GPU, mais en réécrivant entièrement le moteur physique autour des primitives GPU. Si les résultats de transfert annoncés se confirment hors des tâches de pliage sélectionnées dans le papier, les intégrateurs ciblant le textile, la logistique e-commerce ou la préparation alimentaire disposeraient d'un pipeline d'entraînement pratique sans collecte de données terrain. Le problème du sim-to-real gap pour le déformable est documenté depuis plus d'une décennie, sans solution généraliste convaincante. MuJoCo, Warp et Genesis ont chacun progressé sur la simulation souple, mais aucun n'avait démontré ce niveau de throughput combiné à un transfert zéro-shot sur manipulation contact-riche. FLASH s'inscrit dans une tendance lourde de 2025-2026 : repenser les moteurs physiques pour la scalabilité GPU plutôt que d'adapter des architectures CPU legacy. Les auteurs valident uniquement sur pliage de textile, ce qui laisse ouverte la question de généralisation à d'autres déformables (câbles, mousses, aliments). Aucune date de release publique du framework ni de partenariat industriel n'est mentionnée dans le preprint.

RecherchePaper
1 source
XEmbodied : un modèle fondation aux indices géométriques et physiques renforcés pour les environnements incarnés à grande échelle
362arXiv cs.RO 

XEmbodied : un modèle fondation aux indices géométriques et physiques renforcés pour les environnements incarnés à grande échelle

Une équipe de chercheurs a publié fin avril 2026 sur arXiv (référence 2604.18484) les travaux sur XEmbodied, un modèle fondateur côté cloud conçu pour améliorer l'annotation et l'entraînement des modèles Vision-Langage-Action (VLA) dans des environnements complexes à grande échelle. L'approche repose sur deux composants techniques distincts : un adaptateur 3D structuré qui intègre une représentation géométrique native (grilles d'occupation, boîtes englobantes 3D) dans un modèle de langage visuel (VLM) existant, et un adaptateur image-embodied efficace qui distille des signaux physiques en tokens contextuels. L'entraînement combine un curriculum progressif par domaine et un post-entraînement par apprentissage par renforcement. Les résultats sont évalués sur 18 benchmarks publics couvrant le raisonnement spatial, la sémantique trafic, l'affordance embodied et la généralisation hors distribution. Ce travail cible un goulot d'étranglement concret dans la chaîne de développement des systèmes autonomes incarnés : les pipelines d'annotation actuels s'appuient sur des VLM génériques pré-entraînés uniquement sur des paires image-texte 2D, sans compréhension intrinsèque de la géométrie 3D ni des contraintes physiques. Pour un intégrateur ou un décideur industriel qui cherche à construire des datasets de qualité pour robots mobiles ou bras manipulateurs, XEmbodied positionne la compréhension géométrique non comme une entrée auxiliaire optionnelle, mais comme une capacité fondamentale du modèle. Cela représente un changement d'approche notable dans la manière de produire des annotations scalables pour l'embodied AI, un segment où la qualité des données d'entraînement reste le principal facteur limitant avant même l'architecture du VLA lui-même. XEmbodied s'inscrit dans une vague de travaux visant à combler le fossé entre les VLM généralistes (GPT-4V, LLaVA, Qwen-VL) et les exigences de l'embodied AI, où les modèles comme π0 (Physical Intelligence), GR00T N2 (NVIDIA) ou OpenVLA nécessitent des données d'entraînement spatialement cohérentes et physiquement plausibles. La contribution ici n'est pas un VLA en soi, mais une couche d'infrastructure cloud pour en produire de meilleurs. Aucun déploiement industriel ni partenariat commercial n'est mentionné dans l'article : il s'agit d'un travail académique, dont la valeur pratique dépendra de l'adoption par les équipes qui construisent ces pipelines d'annotation à l'échelle.

RechercheOpinion
1 source
Rule-VLN : unifier perception et respect des règles par raisonnement sémantique et rectification géométrique
363arXiv cs.RO 

Rule-VLN : unifier perception et respect des règles par raisonnement sémantique et rectification géométrique

Une équipe de chercheurs a publié sur arXiv (2604.16993) un article introduisant Rule-VLN, un benchmark urbain à grande échelle conçu pour évaluer la navigation par instruction langagière (Vision-and-Language Navigation, ou VLN) sous contraintes réglementaires. L'environnement couvre 29 000 nœuds de graphe urbain, avec 8 000 nœuds soumis à 177 catégories de règles distinctes réparties en quatre niveaux de difficulté croissante. Pour corriger les agents existants, les auteurs proposent le Semantic Navigation Rectification Module (SNRM), un module zero-shot greffable sur tout agent VLN pré-entraîné. Dans les expériences rapportées, SNRM réduit le taux de violation des contraintes (Constraint Violation Rate, CVR) de 19,26 % et améliore le taux de complétion de tâche (Task Completion, TC) de 5,97 % par rapport aux modèles de référence. Le problème identifié est structurel : les agents VLN actuels tombent dans ce que les auteurs appellent le "goal-driven trap", un biais où la géométrie physique ("puis-je passer ici ?") prime sur la sémantique réglementaire ("suis-je autorisé à passer ici ?"). Pour les intégrateurs de systèmes de navigation autonome en environnement urbain ou semi-public, cela signifie concrètement que les agents actuels ignorent des contraintes visibles pourtant critiques : panneaux d'interdiction, zones piétonnes, restrictions de circulation. Rule-VLN est le premier benchmark à formaliser ces contraintes à cette échelle, ce qui en fait un outil de qualification utile pour les développeurs souhaitant valider la conformité comportementale avant déploiement réel, au-delà des métriques classiques de succès de navigation. La VLN est un axe de recherche actif depuis les travaux fondateurs de l'environnement R2R (2018, Anderson et al.), majoritairement axés sur la reachability dans des environnements intérieurs. Rule-VLN étend explicitement ce cadre à l'urbain extérieur avec une dimension normative, un angle peu exploré jusqu'ici malgré la montée en charge des robots de livraison et des AMR en espace public. Côté concurrents directs, des benchmarks comme TouchDown ou CityNav posent des bases géographiques réalistes mais sans injection systématique de contraintes réglementaires. Le SNRM s'appuie sur un VLM (Vision-Language Model) en pipeline coarse-to-fine couplé à une carte mentale épistémique pour la planification de détours dynamiques. Les résultats sont présentés uniquement en conditions simulées : aucun déploiement réel n'est mentionné, et les gains de 19 % sur CVR restent à valider sur des environnements physiques avec une distribution de règles non contrôlée.

UEPertinent pour les intégrateurs de robots de livraison et AMR en espace public européen confrontés aux contraintes réglementaires urbaines, mais aucun acteur FR/EU n'est impliqué dans ces travaux.

RechercheOpinion
1 source
2D ou 3D : qui gouverne la saillance dans les modèles VLA ? Un cadre d'élagage de tokens en trois étapes avec conscience de la saillance modale
364arXiv cs.RO 

2D ou 3D : qui gouverne la saillance dans les modèles VLA ? Un cadre d'élagage de tokens en trois étapes avec conscience de la saillance modale

Des chercheurs ont publié sur arXiv (référence 2604.09244, version 2, avril 2026) un article proposant un cadre d'élagage de tokens en trois étapes pour accélérer les modèles VLA (Vision-Language-Action) multi-modaux. Le constat de départ : les VLA de dernière génération ne se contentent plus d'entrées 2D classiques (images RGB) mais intègrent également des données 3D (nuages de points, profondeur), formant ce que les auteurs appellent des modèles MVLA (Multi-Visual-Modal VLA). Cette expansion modale améliore la perception spatiale des robots, mais elle multiplie le nombre de tokens traités à l'inférence, créant un goulot d'étranglement computationnel significatif. Le framework proposé introduit une analyse en trois phases qui capture les différences de saillance entre tokens 2D et 3D à chaque étape du traitement, puis applique un élagage ciblé selon ces différences. Les expériences rapportent un gain d'accélération allant jusqu'à 2,55x à l'inférence, avec une perte de précision minimale et un surcoût de traitement limité à 5,8%. Ce résultat est pertinent pour les équipes qui cherchent à déployer des VLA sur du matériel embarqué ou des robots opérant en temps réel. L'un des freins majeurs à la commercialisation des robots manipulateurs pilotés par VLA est précisément le coût computationnel de l'inférence : un gain de 2,55x sans dégradation significative des performances ouvre la voie à des cycles de décision plus courts sans nécessiter de GPU de datacenter. Il met aussi en lumière un angle mort des approches d'optimisation existantes : les méthodes d'élagage de tokens conçues pour des VLA 2D ne tiennent pas compte du fait que les tokens 3D et 2D n'ont pas la même importance selon le contexte et l'étape de traitement. Ignorer cette hétérogénéité conduit à des élagages sous-optimaux. Les modèles VLA sont devenus le paradigme dominant en robotique incarnée depuis Pi-0 (Physical Intelligence, 2024) et GR00T N2 (NVIDIA, 2025), qui ont tous deux popularisé l'architecture action-transformer multi-modal. La tendance à intégrer la modalité 3D s'est accélérée avec l'essor des capteurs LiDAR et RGB-D dans les environnements industriels. Ce travail s'inscrit dans une série d'efforts d'optimisation de l'inférence VLA, aux côtés de travaux comme FastV ou des approches de distillation, mais avec la spécificité de traiter explicitement la multi-modalité visuelle. Le code source n'est pas encore publié, ce qui limite pour l'instant la reproductibilité et l'adoption pratique ; les prochaines étapes annoncées concernent sa mise à disposition publique.

RechercheOpinion
1 source
Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables
365arXiv cs.RO 

Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables

Un préprint déposé sur arXiv le 21 avril 2026 (identifiant 2604.17538) propose deux algorithmes destinés à rendre la détection de collision dans les simulations robotiques à la fois lissément différentiable et massivement vectorisable. Les auteurs ciblent un goulet d'étranglement bien identifié dans les pipelines de simulation standard : lorsqu'un robot interagit avec son environnement en mode contact-riche (manipulation d'objets, locomotion bipède, assemblage industriel), le calcul de gradients utiles au premier et second ordre se heurte à des pathologies à chacune des trois étapes classiques, soit la détection de collision, la dynamique de contact et l'intégration temporelle. La contribution porte ici exclusivement sur la première étape. L'équipe introduit une classe de primitives SDF (signed distance function, ou fonction de distance signée) analytiques à haute expressivité, capables de représenter des surfaces 3D complexes avec une efficacité de calcul élevée, ainsi qu'une routine inédite de génération de variétés de contact (contact manifold) exploitant cette représentation géométrique. L'enjeu est significatif pour la communauté de la robotique de contact. Aujourd'hui, les méthodes d'ordre zéro, essentiellement des approches par échantillonnage stochastique comme le CEM ou les politiques évolutionnaires, dominent sur les tâches contact-riches précisément parce que les gradients issus des simulateurs existants sont soit discontinus, soit trop bruités pour être exploitables. Si les résultats annoncés dans ce préprint se confirment, des solveurs d'ordre supérieur (gradient descent, méthodes de Newton) deviendraient applicables à ces scénarios, avec des gains potentiels substantiels en vitesse de convergence et en efficacité computationnelle. La propriété de vectorisation massive est également pertinente pour les architectures GPU modernes, ce qui ouvre la voie à un parallélisme étendu dans les boucles de simulation utilisées pour l'apprentissage par renforcement. Ce travail s'inscrit dans un effort de recherche plus large visant à rendre les simulateurs physiques différentiables de bout en bout, prérequis reconnu pour réduire le sim-to-real gap sur des comportements impliquant du contact. Des environnements comme MuJoCo (DeepMind), Drake (Toyota Research Institute) ou Brax (Google) ont posé des jalons dans cette direction, chacun avec des compromis différents entre fidélité physique et différentiabilité. L'approche SDF analytique proposée ici se distingue par sa vectorisabilité, une propriété moins prioritaire dans les travaux antérieurs. Il s'agit d'un preprint non encore soumis à peer review ; les benchmarks comparatifs et les validations expérimentales sur hardware réel restent à produire, et la robustesse de la méthode sur des géométries industrielles complexes demeure à démontrer.

RecherchePaper
1 source
EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques
366arXiv cs.RO 

EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques

Des chercheurs ont publié le 23 avril 2026 sur arXiv (référence 2604.18271) les travaux sur EmbodiedLGR-Agent, une architecture mémoire pour robots mobiles combinant graphe sémantique léger et retrieval-augmented generation. Le système repose sur un modèle visuo-langagier (VLM) à faible empreinte paramétrique qui indexe en continu les objets détectés, leurs positions et leurs relations spatiales dans un graphe dense, tout en conservant des descriptions de haut niveau des scènes observées via une couche RAG classique. L'ensemble tourne localement, sans dépendance cloud. Évalué sur le benchmark NaVQA, EmbodiedLGR-Agent atteint des performances état de l'art sur les temps d'inférence et de requête pour les agents robotiques embarqués, tout en maintenant une précision compétitive sur la tâche globale de question-réponse spatiale. Le système a également été déployé sur un robot physique réel, validant son utilité hors simulation. Ce qui mérite attention, c'est moins la précision brute que la latence : dans les interactions humain-robot, un agent qui répond "où sont les ciseaux ?" en temps humain change radicalement l'expérience utilisateur. La majorité des architectures mémoire robotiques actuelles sacrifient la réactivité à la richesse sémantique, ou inversement. L'approche hybride graphe + RAG tente de résoudre ce compromis sans exploser les ressources de calcul embarqué. Le déploiement sur robot physique, et non en simulation pure, est un signal concret, même si l'article ne précise pas la plateforme matérielle ni les métriques de latence chiffrées en millisecondes, ce qui limite la comparabilité directe avec d'autres systèmes. L'enjeu de la mémoire sémantique-spatiale est un chantier ouvert depuis plusieurs années dans la communauté robotique, avec des approches comme les scene graphs neuraux, ConceptGraphs ou encore les travaux de SayPlan. EmbodiedLGR se positionne sur le segment des architectures légères et déployables sur matériel contraint, là où des solutions comme celles de Boston Dynamics ou des startups comme Skild AI misent plutôt sur la puissance de calcul embarquée ou le traitement distant. Sur le front européen, des acteurs comme Enchanted Tools (Mirokaï) ou Wandercraft travaillent également sur la cognition embarquée, mais dans des contextes applicatifs distincts. Les prochaines étapes naturelles seraient une évaluation sur des benchmarks plus récents (Habitat, OpenEQA) et une publication des temps de latence mesurés sur plateforme physique.

RechercheOpinion
1 source
AnchorRefine : manipulation synergique par ancrage de trajectoire et raffinement résiduel pour les modèles VLA
367arXiv cs.RO 

AnchorRefine : manipulation synergique par ancrage de trajectoire et raffinement résiduel pour les modèles VLA

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.17787) AnchorRefine, un framework hiérarchique conçu pour améliorer les modèles vision-langage-action (VLA) dans les tâches de manipulation robotique de précision. Le principe central repose sur une décomposition en deux niveaux : un planificateur d'ancres de trajectoire (anchor planner) qui génère un squelette de mouvement grossier, et un module de raffinement résiduel qui corrige les déviations en phase d'exécution pour améliorer la précision géométrique et de contact. Le système intègre également un mécanisme de raffinement de pince sensible aux transitions discrètes (decision-aware gripper refinement), conçu pour mieux capturer le caractère binaire et critique aux frontières du contrôle de préhension. Évalué sur les benchmarks LIBERO et CALVIN, ainsi que sur des tâches en robot réel, AnchorRefine affiche des gains allant jusqu'à 7,8 points de pourcentage en taux de succès en simulation et 18 points en conditions réelles, sur des backbones VLA à base de régression comme de diffusion. Le problème que cette architecture cherche à résoudre est structurel dans la conception actuelle des politiques VLA : lorsqu'une politique génère toutes les actions dans un espace unifié, les grands mouvements de transport dominent l'optimisation et noient les signaux correctifs de faible amplitude, pourtant critiques pour les tâches de précision comme l'assemblage, l'insertion ou la manipulation d'objets fragiles. En séparant explicitement la planification macroscopique de l'ajustement microscopique, AnchorRefine reproduit une structure proche de la motricité humaine, où la trajectoire globale et la correction locale sont des processus distincts. Le gain de 18 % en conditions réelles est significatif car il suggère une réduction effective du sim-to-real gap sur les tâches de contact, un verrou majeur pour la commercialisation des manipulateurs polyvalents. Ce travail s'inscrit dans une tendance de fond en robotique académique : l'hybridation entre planification à haut niveau (souvent guidée par le langage ou la vision) et contrôle fin en boucle fermée. Des approches comme pi0 (Physical Intelligence) ou GR00T N2 (NVIDIA) intègrent déjà des mécanismes proches, tandis que des labos comme celui de Chelsea Finn (Stanford) ou Sergey Levine (Berkeley) explorent la hiérarchie action depuis plusieurs années. AnchorRefine se distingue en proposant une solution modulaire compatible avec des backbones existants sans réentraîner l'ensemble du modèle, ce qui facilite potentiellement son intégration dans des pipelines VLA déjà déployés. Les auteurs ne mentionnent pas de partenariat industriel ni de timeline de déploiement, et les évaluations restent cantonnées à des benchmarks académiques, ce qui tempère les conclusions sur la robustesse en environnement non contrôlé.

RechercheOpinion
1 source
LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation
368arXiv cs.RO 

LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation

Des chercheurs ont publié le 22 avril 2026 un préprint sur arXiv (arXiv:2604.16440) présentant LatentMimic, un cadre d'apprentissage de la locomotion pour robots quadrupèdes conçu pour concilier deux objectifs jusqu'ici antagonistes : reproduire fidèlement le style de marche issu de données de capture de mouvement (mocap) et s'adapter dynamiquement à des terrains irréguliers. L'approche repose sur une imitation dans l'espace latent : plutôt que de contraindre le robot à répliquer exactement les poses géométriques enregistrées, LatentMimic minimise la divergence marginale entre la distribution état-action de la politique apprise et un prior mocap entraîné séparément. Le système intègre également un module d'adaptation au terrain équipé d'un buffer de replay dynamique, destiné à corriger les dérives de distribution lorsque le robot passe d'un type de sol à un autre. Les évaluations portent sur quatre styles locomoteurs et quatre types de terrain, démontrant des taux de franchissement supérieurs aux méthodes de suivi de mouvement actuelles tout en conservant une haute fidélité stylistique. Ce travail s'attaque à un compromis fondamental qui freine le déploiement des robots quadrupèdes dans des environnements non structurés : les méthodes d'imitation stricte bloquent l'adaptabilité terrain, tandis que les politiques terrain-centriques sacrifient la naturalité du mouvement. En découplant la topologie de la foulée des contraintes géométriques d'extrémité, LatentMimic suggère qu'il est possible d'obtenir les deux à la fois. Pour les intégrateurs industriels et les équipes robotique, cela ouvre la voie à des contrôleurs plus robustes sur sols accidentés, escaliers ou surfaces déformables, sans devoir re-collecter des données mocap spécifiques à chaque terrain. La locomotion quadrupède par imitation est un axe de recherche actif depuis plusieurs années, avec des travaux notables comme AMP (Adversarial Motion Priors, Berkeley 2021) ou les méthodes sim-to-real de DeepMind sur ANYmal et Spot. LatentMimic s'inscrit dans cette lignée en proposant une relaxation conditionnelle plus fine du suivi de pose. Le paper est pour l'instant un préprint non relu par les pairs, et les résultats sont présentés uniquement en simulation et environnements contrôlés, le gap sim-to-real reste à valider sur hardware réel. Aucun partenariat industriel ni timeline de déploiement n'est mentionné. Les prochaines étapes naturelles seraient une validation sur plateformes physiques (Unitree, Boston Dynamics Spot) et une extension à des styles locomoteurs plus complexes comme le trot ou le galop en terrain extrême.

RecherchePaper
1 source
Rewind-IL : détection des échecs en temps réel et réinitialisation d'état pour l'apprentissage par imitation
369arXiv cs.RO 

Rewind-IL : détection des échecs en temps réel et réinitialisation d'état pour l'apprentissage par imitation

Une équipe de chercheurs a publié Rewind-IL, un framework de surveillance en ligne conçu pour détecter les échecs d'exécution dans les politiques d'imitation learning à découpage d'actions (action-chunked policies) et y remédier sans nécessiter de données d'échec préalables. Le système repose sur deux mécanismes complémentaires : un détecteur d'anomalies baptisé TIDE (Temporal Inter-chunk Discrepancy Estimate), qui mesure l'incohérence temporelle entre segments d'actions successifs, et un mécanisme de "respawning" qui ramène le robot à un état intermédiaire sûr vérifié sémantiquement. En amont du déploiement, un modèle vision-langage (VLM) identifie des points de reprise dans les démonstrations d'entraînement, et l'encodeur de la politique gelée génère une base de données compacte d'empreintes de ces checkpoints. En ligne, Rewind-IL surveille la cohérence interne des chunks d'actions superposés et, dès détection d'une dérive, revient au dernier état validé avant de relancer l'inférence depuis un état propre. Les expériences couvrent des tâches de manipulation longue portée en environnement réel et simulé, avec transfert vers des politiques basées sur le flow matching. L'intérêt principal de Rewind-IL est qu'il est training-free : aucune donnée d'échec n'est nécessaire pour entraîner le détecteur, ce qui le distingue des moniteurs existants qui requièrent soit des exemples négatifs étiquetés, soit tolèrent mal les dérives bénignes de features. Le problème qu'il adresse est structurel dans les politiques action-chunked : une fois que l'exécution sort du manifold de démonstration, la politique continue de générer des actions localement plausibles mais globalement incohérentes, sans jamais récupérer. Rewind-IL casse ce cycle en combinant détection statistique (calibration par split conformal prediction pour contrôler le taux de fausses alarmes) et récupération sémantiquement ancrée plutôt que géométrique. C'est une approche pragmatique pour améliorer la fiabilité des robots en déploiement industriel, sans retraining ni ingénierie de données d'échec. L'imitation learning a connu un regain d'intérêt majeur avec l'émergence des politiques visuomotrices génératives, notamment ACT et Diffusion Policy, largement adoptées dans les labos académiques et par des acteurs comme Physical Intelligence (pi0) ou Figure AI. Ces politiques se heurtent toutefois à un "deployment gap" : les performances en démo ne se transposent pas toujours en conditions réelles sur des tâches longues. Rewind-IL s'inscrit dans une tendance croissante de travaux sur la robustesse runtime (aux côtés de méthodes comme DART ou les moniteurs basés sur l'incertitude), mais se distingue par son absence totale de supervision sur les échecs. Les auteurs indiquent que le code et les matériaux supplémentaires sont disponibles en ligne, mais aucun partenariat industriel ni déploiement terrain n'est annoncé à ce stade : il s'agit d'une contribution de recherche académique, pas d'un produit shipé.

RechercheOpinion
1 source
UniDomain : préentraînement d'un domaine PDDL unifié à partir de démonstrations réelles pour la planification robotique généralisable
370arXiv cs.RO 

UniDomain : préentraînement d'un domaine PDDL unifié à partir de démonstrations réelles pour la planification robotique généralisable

Une équipe de chercheurs a publié UniDomain, un cadre de pré-entraînement qui construit automatiquement un domaine PDDL (Planning Domain Definition Language) unifié à partir de démonstrations robotiques réelles, pour être ensuite appliqué à la planification de tâches en ligne. Le système ingère 12 393 vidéos de manipulation robotique, en extrait des domaines atomiques, et les fusionne en un domaine unifié comprenant 3 137 opérateurs, 2 875 prédicats et 16 481 arêtes causales. Face à une nouvelle classe de tâches, UniDomain récupère les atomes pertinents et les assemble dynamiquement en méta-domaines adaptés. Les expériences sur des tâches réelles inédites montrent des gains allant jusqu'à 58 % sur le taux de succès et 160 % sur l'optimalité des plans, comparé aux meilleures bases LLM seuls et LLM couplés à PDDL manuel, le tout en mode zéro-shot. Ce résultat s'attaque à l'un des verrous centraux de la robotique manipulatrice : la capacité à raisonner sur des séquences longues d'actions avec des contraintes implicites issues du langage et de la vision. Les LLM et VLM actuels fournissent de bons priors sémantiques, mais peinent à maintenir une cohérence causale sur des horizons temporels étendus et à ancrer les symboles dans le réel. UniDomain propose une voie médiane : extraire la structure symbolique directement depuis des démonstrations, évitant ainsi la fragilité des domaines PDDL codés à la main, souvent trop étroits pour généraliser. La généralisation compositionnelle zéro-shot, validée sur des tâches jamais vues, est ici une affirmation forte, bien que la sélection des vidéos sources et des scénarios de test mériterait une vérification indépendante pour écarter un biais de distribution. La planification symbolique robotique via PDDL est un paradigme ancien, remontant aux travaux STRIPS des années 1970, mais qui a souffert du coût élevé de l'ingénierie des domaines. Des approches récentes comme SayCan (Google), Code-as-Policies (Google Brain) ou les travaux de planification LLM de MetaAI ont tenté de contourner ce problème par la génération de code ou de plans en langage naturel, avec des résultats limités en environnements ouverts. UniDomain repositionne PDDL non plus comme une contrainte d'ingénierie mais comme un artefact appris, ce qui le rapproche conceptuellement des travaux sur l'apprentissage de modèles du monde. Les prochaines étapes naturelles incluent l'extension à la manipulation déformable, l'intégration avec des architectures VLA comme pi-0 ou GR00T N2, et une validation en environnement industriel réel, aujourd'hui absente de l'article.

RecherchePaper
1 source
Atelier interdisciplinaire sur l'intelligence mécanique : rapport de synthèse
371arXiv cs.RO 

Atelier interdisciplinaire sur l'intelligence mécanique : rapport de synthèse

Les 30 et 31 mai 2024, la National Science Foundation (NSF) a accueilli dans ses locaux un atelier interdisciplinaire de deux jours consacré à l'intelligence mécanique (MI, Mechanical Intelligence). L'événement a réuni 38 chercheurs académiques invités et 8 responsables de programmes NSF, soit 46 participants au total. Le format privilégiait les discussions en petits groupes (4 à 5 personnes) et en groupes élargis (9 à 10 personnes), chaque session aboutissant à des notes consignées dans des diaporamas partagés et présentées en clôture le second jour. Le rapport issu de ce workshop vient d'être déposé sur arXiv (2604.16381). L'intelligence mécanique désigne la capacité de systèmes matériels, biologiques ou robotiques à encoder des fonctions cognitives, réactivité, adaptabilité, mémoire, apprentissage, directement dans leur structure physique, sans recourir à du calcul électronique ou à du code logiciel. C'est une rupture conceptuelle avec l'intelligence computationnelle classique : plutôt que de traiter l'information dans un processeur centralisé, le comportement intelligent émerge de la morphologie, de la compliance ou des propriétés des matériaux eux-mêmes. Pour les intégrateurs et concepteurs de systèmes robotiques, cette approche ouvre une voie vers des robots plus robustes, moins énergivores et capables d'opérer dans des environnements non structurés sans dépendre d'une boucle de contrôle lourde. Ce workshop s'inscrit dans un intérêt croissant pour la robotique morphologique et la soft robotics, des champs où des institutions européennes comme l'EPFL, l'Università di Pisa ou des startups françaises proches de l'écosystème Inria jouent un rôle actif. La MI fait écho aux travaux sur les actionneurs compliant et aux recherches sur le sim-to-real gap : si l'intelligence est partiellement distribuée dans la mécanique, les besoins en simulation précise diminuent. Le rapport de synthèse, produit collectivement par les participants, constitue une feuille de route potentielle pour orienter les futurs appels à projets NSF dans ce domaine, et pourrait influencer des financements analogues côté ERC ou ANR dans les prochaines années.

UEL'EPFL, l'Università di Pisa et l'écosystème Inria sont actifs dans le champ couvert ; les conclusions du rapport pourraient orienter de futurs appels ERC et ANR en robotique morphologique et soft robotics.

RecherchePaper
1 source
Amélioration de la reconstruction de surfaces en verre par estimation de profondeur pour la navigation robotique
372arXiv cs.RO 

Amélioration de la reconstruction de surfaces en verre par estimation de profondeur pour la navigation robotique

Des chercheurs ont publié le 25 avril 2026 sur arXiv (arXiv:2604.18336) un framework de reconstruction de surfaces vitrées destiné à améliorer la navigation autonome en intérieur. Le problème visé est concret : les capteurs de profondeur (LiDAR, RGB-D) échouent systématiquement face aux surfaces transparentes ou réfléchissantes comme le verre, qui génèrent des mesures erronées ou absentes. L'approche proposée exploite Depth Anything 3, un modèle fondationnel de vision monoculaire, comme prior géométrique, puis aligne ce prior sur les données brutes du capteur via un algorithme RANSAC local. Ce mécanisme permet d'éviter que les mesures corrompues par le verre ne contaminent la reconstruction finale, tout en récupérant une échelle métrique absolue que le modèle de fondation seul ne fournit pas. L'équipe publie également GlassRecon, un dataset RGB-D inédit avec vérité terrain dérivée géométriquement pour les régions vitrées, et annonce la mise à disposition du code et des données sur GitHub. Ce travail adresse un angle mort réel de la navigation robotique en milieu tertiaire. Les bureaux, centres commerciaux, aéroports et hôpitaux sont truffés de cloisons vitrées, de vitrines et de portes transparentes qui font échouer les AMR (Autonomous Mobile Robots) commerciaux en production. Le fait que le framework soit training-free est un avantage pratique direct pour les intégrateurs : il ne nécessite pas de retrainer un modèle sur des données propriétaires, et peut s'insérer dans un pipeline de navigation existant sans modification majeure. Les expériences montrent des gains consistants par rapport aux baselines de l'état de l'art, particulièrement dans les cas de corruption sévère du capteur, ce qui suggère une robustesse utile en conditions réelles plutôt qu'en environnement de laboratoire contrôlé. La détection et la reconstruction de surfaces transparentes est un problème ouvert depuis plusieurs années dans la communauté robotique. Des travaux antérieurs comme GlassNet ou Trans10K avaient abordé la segmentation du verre en RGB pur, mais la fusion avec des données de profondeur restait peu explorée de manière training-free. Du côté concurrentiel, des approches de completion de profondeur par deep learning (IP-Basic, PENet) ou de slam robuste aux occultations existent, mais elles requièrent typiquement un entraînement spécialisé. La contribution de ce papier est de positionner les modèles de fondation non pas comme remplaçants du capteur, mais comme régularisateurs géométriques. Les prochaines étapes annoncées sont la publication du dataset GlassRecon et du code, ce qui permettra à la communauté d'évaluer la reproductibilité des résultats. Aucun déploiement terrain ni partenaire industriel n'est mentionné à ce stade : il s'agit d'une contribution de recherche, pas d'un produit.

RecherchePaper
1 source
Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche
373arXiv cs.RO 

Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche

Une équipe de chercheurs a publié en avril 2026 sur arXiv (arXiv:2604.16850) une méthode baptisée I2RLC (Incremental Iterative Reference Learning Control) pour générer automatiquement des démonstrations robotiques rapides et précises, sans intervention humaine à haute vitesse. Le constat de départ est simple : en apprentissage par imitation (IL), les humains ne peuvent pas démontrer physiquement une tâche à 5x ou 10x leur vitesse naturelle, et accélérer naïvement un enregistrement dégrade la dynamique de contact et crée des erreurs de suivi qui corrompent les données d'entraînement. L'I2RLC résout ce problème en augmentant progressivement la vitesse d'exécution tout en corrigeant itérativement la trajectoire de référence à partir des erreurs observées. La méthode a été validée sur robot réel, sur deux tâches à contact riche : effacement de tableau blanc et insertion cheville-trou (peg-in-hole), en utilisant un système de téleopération composé d'un bras suiveur à contrôle de compliance et d'un leader haptic imprimé en 3D. Les résultats atteignent des démonstrations 10x plus rapides avec réduction des erreurs de suivi, et I2RLC améliore la similarité spatiale aux trajectoires originales de 22,5 % en moyenne par rapport à la version non-incrémentale (IRLC), sur trois tâches et plusieurs vitesses (3x à 10x). Les politiques entraînées sur ces données atteignent 100 % de taux de réussite sur la tâche peg-in-hole, y compris pour des positions non vues à l'entraînement, avec des forces de contact inférieures. Ce résultat adresse un angle mort fréquent dans le développement des politiques d'imitation : la qualité des démonstrations elle-même. La grande majorité des approches IL (Diffusion Policy, ACT, Pi-0) suppose des démos propres et représentatives, sans se préoccuper du fossé entre la vitesse humaine et la vitesse de déploiement réelle. Ici, la généralisation à des positions non vues avec 100 % de succès constitue un signal concret de robustesse, pas simplement une performance en conditions contrôlées. Pour les intégrateurs industriels, l'enjeu est direct : si l'on peut automatiser la génération de trajectoires rapides à partir de démos lentes, le coût de collecte de données pour des tâches d'assemblage ou de manutention chute significativement. L'apprentissage par imitation pour la manipulation à contact riche est un axe de recherche très actif depuis 2022-2023, porté par des travaux comme ACT (Stanford), Diffusion Policy (MIT/Columbia) et les architectures VLA type Pi-0 (Physical Intelligence). Le problème de la "vitesse des démos" reste cependant peu traité dans la littérature. L'I2RLC s'inscrit dans une lignée de méthodes de contrôle itératif (ILC) adaptées à la robotique apprenante. Aucune entreprise commerciale n'est citée dans cette publication académique, mais les applications industrielles naturelles touchent l'assemblage électronique, le câblage, et toute manipulation nécessitant précision et cadence. Les prochaines étapes probables incluent une extension aux politiques diffusives modernes et une validation sur des tâches multi-étapes en environnement non structuré.

RecherchePaper
1 source
Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision
374arXiv cs.RO 

Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision

Des chercheurs ont publié sur arXiv (référence 2604.16741) une étude portant sur la navigation autonome de robots mobiles dans des environnements piétonniers à forte densité, en s'appuyant sur une représentation simplifiée des groupes de piétons détectés par LiDAR. Le problème central qu'ils adressent est bien identifié dans le secteur : naviguer socialement en foule dense reste un verrou applicatif majeur pour les AMR déployés en gare, aéroport ou centre commercial. Les approches existantes souffrent de deux limites structurelles : soit elles n'ont été testées qu'en faible densité, soit elles reposent sur des modules de détection externe d'individus, particulièrement sensibles aux occlusions et au bruit de capteur propres aux foules compactes. Les auteurs proposent en réponse une représentation dite "visible edge-based" des groupes, qui exploite uniquement les arêtes visibles entre piétons détectés, sans reconstruction complète des trajectoires individuelles. Le résultat le plus significatif de ce travail est contre-intuitif : la précision de la prédiction des groupes n'influence que marginalement les performances de navigation en environnement dense. Cela suggère qu'une représentation simplifiée, computationnellement moins coûteuse, peut atteindre des niveaux de sécurité et de "socialness" comparables à des approches plus complexes. Pour les intégrateurs et les équipes R&D déployant des robots de service en milieu public, cette observation est directement actionnables : elle légitime une réduction significative de la complexité du pipeline de perception sans dégradation mesurable du comportement social du robot. Les expériences en simulation confirment cette parité de performance, et la vitesse de calcul accrue ouvre la voie à des déploiements sur hardware embarqué plus contraint. Le contexte académique de ce travail s'inscrit dans une littérature active sur la navigation socialmente conforme (socially-aware navigation), dont les jalons incluent les travaux sur ORCA, SARL ou encore CADRL. La prise en compte des groupes comme unité comportementale plutôt que des individus isolés remonte à des études empiriques en sciences sociales (théorie des F-formations), et plusieurs équipes travaillent sur ce sujet, notamment à travers les benchmarks de navigation piétonnière en robotique de service. L'étape suivante naturelle serait une validation à plus grande échelle en conditions réelles, les auteurs ayant pour l'instant limité les expériences terrain à un seul robot dans un environnement contrôlé.

RecherchePaper
1 source
Détection structurelle en temps réel pour la navigation intérieure par LiDAR 3D avec images en vue aérienne
375arXiv cs.RO 

Détection structurelle en temps réel pour la navigation intérieure par LiDAR 3D avec images en vue aérienne

Des chercheurs ont publié sur arXiv (arXiv:2603.19830v2) un pipeline de perception léger capable de détecter en temps réel les structures d'un environnement intérieur à partir de données LiDAR 3D, sans recourir à un GPU. Le principe : projeter le nuage de points 3D en images Bird's-Eye-View (BEV) 2D, puis appliquer un détecteur sur cette représentation compressée. L'équipe a comparé quatre approches de détection de structures (murs, couloirs, portes) : la transformée de Hough, RANSAC, LSD (Line Segment Detector) et un réseau YOLO-OBB (Oriented Bounding Box). Les expériences ont été conduites sur une plateforme robotique mobile standard équipée d'un single-board computer (SBC) à faible consommation. Résultat : YOLO-OBB est la seule méthode à satisfaire la contrainte temps réel de 10 Hz en bout de chaîne, là où RANSAC dépasse les budgets de latence et LSD génère une fragmentation excessive de segments qui sature le système. Un module de fusion spatiotemporelle stabilise les détections entre frames consécutives. L'intérêt opérationnel est direct pour les intégrateurs de robots mobiles autonomes (AMR) fonctionnant sur du matériel embarqué standard, typiquement des SBC ARM sans accélérateur dédié. Démontrer qu'un détecteur basé YOLO-OBB tient 10 Hz sur ce type de plateforme réduit le coût matériel des solutions de cartographie et navigation indoor, un verrou persistant dans le déploiement à grande échelle d'AMR en entrepôt ou en milieu hospitalier. L'approche BEV contourne également la complexité computationnelle des traitements de nuages de points 3D complets (méthodes de type PointNet, VoxelNet), qui restent prohibitifs hors GPU. La mise à disposition du code source et des modèles pré-entraînés facilite la reproductibilité et l'adaptation industrielle. Ce travail s'inscrit dans un courant de recherche actif visant à rendre la perception robotique robuste accessibles aux plateformes contraintes en ressources, en concurrence directe avec des approches comme les architectures 2D range-image ou les méthodes pillars (PointPillars). Sur le plan de la navigation indoor, il complète des stacks SLAM existants (Cartographer, RTAB-Map) en ajoutant une couche de détection structurelle explicite, utile pour la planification de trajectoires en espaces semi-structurés. Les prochaines étapes logiques incluent la validation sur des scénarios plus denses (open space vs couloirs étroits), ainsi que l'intégration dans des boucles de localisation et cartographie continues, où la stabilité temporelle du module de fusion sera mise à l'épreuve à plus grande échelle.

RecherchePaper
1 source
DART : commande prédictive augmentée par apprentissage pour la manipulation bi-bras non préhensile
376arXiv cs.RO 

DART : commande prédictive augmentée par apprentissage pour la manipulation bi-bras non préhensile

Des chercheurs ont publié sur arXiv (référence 2604.17833) les travaux autour de DART, un framework bimanuel conçu pour la manipulation non préhensile d'objets posés sur un plateau. L'approche repose sur un contrôleur prédictif non linéaire (MPC) couplé à un contrôleur d'impédance par optimisation, permettant de déplacer des objets sur le plateau sans les saisir directement. Le système évalue trois stratégies de modélisation de la dynamique plateau-objet : un modèle analytique physique, un modèle par régression en ligne adaptatif en temps réel, et un modèle de dynamique entraîné par apprentissage par renforcement (RL), ce dernier offrant une meilleure généralisation sur des objets aux propriétés variées. Les évaluations ont été réalisées en simulation sur des objets de masses, géométries et coefficients de friction différents. Les auteurs revendiquent que DART constitue le premier framework dédié à ce type de tâche en configuration bimanuelle. L'intérêt technique de DART réside dans la comparaison rigoureuse des trois approches de modélisation sur des métriques concrètes : temps de stabilisation, erreur en régime permanent, effort de contrôle et généralisation. Ce benchmark interne est utile pour les équipes d'intégration robotique qui doivent choisir entre modèles physiques (précis mais rigides), adaptation en ligne (réactive mais computationnellement coûteuse) et RL (flexible mais plus difficile à certifier). L'association MPC et contrôleur d'impédance est une piste crédible pour la manipulation d'objets fragiles ou instables, un verrou important en robotique de service. Toutefois, la validation reste strictement en simulation : le passage au réel implique des défis de perception, de latence et de calibration que le papier ne traite pas encore. Ce travail s'inscrit dans un intérêt croissant pour la robotique de service en hôtellerie et restauration, où des acteurs comme Bear Robotics (Servi), Keenon Robotics ou encore Enchanted Tools (Miroki, développé en France) positionnent leurs plateformes sur des tâches de transport et de service en salle. Les approches dominantes jusqu'ici privilégient la navigation autonome avec préhension classique ; la manipulation non préhensile sur plateau reste peu explorée à l'échelle produit. La prochaine étape naturelle pour DART serait une validation sur plateforme physique, avec des bras commerciaux type Franka Research 3 ou Universal Robots, avant d'envisager une intégration dans un robot mobile de service.

UEEnchanted Tools (Miroki, France) est cité comme acteur du service robotique susceptible de bénéficier de ce type de manipulation non préhensile sur plateau, mais le travail reste en simulation sans transfert réel annoncé.

RecherchePaper
1 source
Actionneurs magnétiques bio-inspirés capables de pousser, tirer, ramper et saisir
377arXiv cs.RO 

Actionneurs magnétiques bio-inspirés capables de pousser, tirer, ramper et saisir

Des chercheurs ont présenté une nouvelle famille d'actionneurs magnétiques doux, baptisés MMA (muscle-inspired magnetic actuators), fabriqués par frittage laser sur lit de poudre (LPBF) à partir d'un composite thermoplastique polyuréthane chargé de particules de Nd2Fe14B (néodyme-fer-bore). En jouant sur un paramètre d'énergie laser compris entre 1,0 et 3,0, l'équipe contrôle simultanément la rigidité mécanique, la résistance à la traction passe de 0,28 à 0,99 MPa pour un allongement à rupture maintenu entre 30 et 45 %, et la réponse magnétique du matériau. Cette co-programmation en un seul passage de fabrication permet d'obtenir des charnières flexurales de 0,5 mm d'épaisseur capables de se plier et de se déplier de manière réversible sans dommage. Deux configurations ont été démontrées : un actionneur linéaire de 1,57 g qui, sous un champ de 500 mT, soulève une charge de 50 g, soit 32 fois son propre poids, avec un maintien de performance sur au moins 50 cycles ; et un actionneur expansible qui s'ouvre et se ferme sous 300 mT, capable de saisir aussi bien des baies molles que des géométries rigides imprimées en 3D, et de s'ancrer dans un tube pour suspendre 50 g. Ce résultat est notable parce qu'il résout un compromis classique de la robotique souple : obtenir à la fois rigidité contrôlable, grande déformation et actionnement sans câble ni source d'énergie embarquée. L'absence de tuyauterie pneumatique ou de fils d'alimentation simplifie radicalement l'intégration dans des espaces confinés, ce qui est directement pertinent pour la manipulation médicale mini-invasive ou les robots d'inspection en milieu industriel. Le taux de succès de locomotion de 100 % sur substrats texturés, certes dans un cadre laboratoire contrôlé, suggère une robustesse mécanique supérieure aux actionneurs pneumatiques comparables, bien que les conditions de test restent à reproduire hors labo. Les actionneurs magnétiques doux existent depuis une dizaine d'années, mais ils reposaient généralement sur des élastomères moulés (PDMS, silicone) avec des poudres magnétiques dispersées, dont la fabrication limite la résolution géométrique et la répétabilité. L'apport du LPBF est de passer à une fabrication additive directe, plus précise et potentiellement industrialisable. Sur le plan concurrentiel, l'approche se positionne face aux actionneurs à alliages à mémoire de forme (SMA, typiquement Nitinol), aux systèmes câblés type Festo ou aux actionneurs pneumatiques de Shadow Robot et Soft Robotics Inc. Aucun partenaire industriel ni calendrier de commercialisation ne sont mentionnés dans la publication arXiv, qui reste à ce stade un résultat de recherche fondamentale. Les prochaines étapes naturelles seraient la démonstration à plus grande échelle, l'évaluation de la durée de vie au-delà de 50 cycles, et des essais in vivo pour valider le potentiel biomédical annoncé.

RecherchePaper
1 source
Actionnement par multiplexage temporel dans les bras à tendons : conception légère et tolérance aux pannes
378arXiv cs.RO 

Actionnement par multiplexage temporel dans les bras à tendons : conception légère et tolérance aux pannes

Des chercheurs ont publié sur arXiv (référence 2504.16887) une architecture d'actionnement inédite pour bras robotiques à tendons, baptisée Time-Division Multiplexing Actuation (TDMA). Le principe emprunte au multiplexage temporel des télécommunications : plutôt que d'allouer un actionneur par degré de liberté, un seul groupe de moteurs commute séquentiellement entre les tendons via des embrayages électromagnétiques à engagement rapide, inférieurs à 0,1 seconde. Le prototype résultant, appelé MuxArm, affiche une masse propre de 2,17 kg pour une capacité de charge utile de 10 kg, soit un ratio payload/poids de structure supérieur à 4,6. La précision en bout d'effecteur est maintenue à 1 % de la longueur du bras, y compris en cas de défaillance partielle d'un servomoteur. Un réducteur à vis sans fin assure le maintien de charge en coupure d'alimentation (self-locking), et un double encodeur garantit la précision de positionnement sur le long terme. Des tests ont été conduits en espace libre, en environnement encombré et en espace confiné. Le TDMA s'attaque à un arbitrage fondamental des bras légers à tendons : réduire la masse embarquée oblige généralement à réduire le nombre d'actionneurs, ce qui compromet redondance et tolérance aux pannes. Ici, la mutualisation temporelle des moteurs permet de conserver un couple élevé tout en réduisant la charge sur les tendons jusqu'à 50 % par rapport aux méthodes conventionnelles, grâce à un algorithme de planification trajectoire en espace d'actionnement. Pour les intégrateurs industriels et les agences spatiales, c'est un argument sérieux : un bras pouvant continuer à opérer après une panne de servo partielle, sans masse supplémentaire, répond directement aux contraintes des environnements inaccessibles (orbite, inspection sous-marine, démantèlement nucléaire). Il reste à qualifier cette tolérance aux pannes sur des cycles longs et sous vibrations réelles, deux paramètres absents du papier. Le TDMA s'inscrit dans un courant de recherche sur les architectures d'actionnement à faible redondance physique, en complément des travaux sur les muscles artificiels pneumatiques (soft robotics) et les transmissions à câble tendus à moteurs déportés, popularisés par des bras comme le Kinova Gen3 ou les manipulateurs de l'ESA. La tendance de fond est de repousser la masse vers le bâti plutôt que vers les segments distaux, comme le fait aussi le projet Wandercraft sur ses exosquelettes. Ce travail, issu d'un laboratoire dont l'affiliation institutionnelle n'est pas précisée dans le préprint, n'est pour l'instant qu'une démonstration expérimentale : aucun partenaire industriel ni calendrier de transfert technologique n'est mentionné.

RecherchePaper
1 source
COFFAIL : un jeu de données sur les succès et anomalies d'exécution de compétences robotiques pour la préparation du café
379arXiv cs.RO 

COFFAIL : un jeu de données sur les succès et anomalies d'exécution de compétences robotiques pour la préparation du café

L'équipe derrière COFFAIL a publié sur arXiv (référence 2604.18236) un jeu de données consacré à l'apprentissage de compétences robotiques de manipulation, collecté dans un environnement cuisine avec un robot physique. Le dataset couvre plusieurs types de tâches liées à la préparation de café et se distingue par une caractéristique rare dans la littérature : il regroupe à la fois des épisodes d'exécution réussis et des épisodes anomaux, c'est-à-dire des séquences où quelque chose s'est mal passé. Certains épisodes mobilisent une manipulation bimanuell, impliquant la coordination des deux bras du robot. Les auteurs démontrent l'usage concret du dataset en entraînant une politique robotique par imitation learning (apprentissage par démonstration). Ce qui distingue COFFAIL des datasets de manipulation habituellement disponibles, c'est l'inclusion explicite des échecs et des anomalies. La grande majorité des benchmarks publics ne documentent que les trajectoires réussies, ce qui crée un biais structurel dans l'entraînement des modèles : les robots apprennent à réussir, mais pas à détecter ni à récupérer d'une défaillance. Pour les intégrateurs industriels et les équipes de recherche travaillant sur la robustesse et la détection d'anomalies en manipulation, disposer d'exemples négatifs annotés est une ressource directement exploitable, notamment pour entraîner des modules de supervision ou de re-planification. L'application à l'imitation learning suggère aussi une compatibilité avec les architectures VLA (vision-language-action) actuelles. La préparation de café comme domaine applicatif est un choix délibéré dans la robotique de service : c'est une tâche suffisamment structurée pour être reproductible, mais qui implique des objets déformables, des liquides, et des contraintes temporelles, ce qui en fait un banc de test représentatif pour la manipulation fine. Plusieurs labos et startups ont utilisé des scénarios similaires pour tester leurs pipelines, dont Physical Intelligence (pi0), Everyday Robots (avant sa dissolution chez Google) ou des équipes académiques européennes. COFFAIL reste pour l'instant une contribution de dataset sans benchmarking comparatif avec d'autres méthodes, ce qui limite la portée des conclusions : le papier est court et déclaré comme tel par les auteurs. Les prochaines étapes naturelles seraient une évaluation comparative sur des tâches de détection d'anomalies et une extension du protocole à d'autres domaines de manipulation.

UELes équipes de recherche européennes en manipulation robotique peuvent exploiter ce dataset pour entraîner des modules de détection d'anomalies, mais aucun acteur FR/EU n'est directement impliqué dans sa production.

RecherchePaper
1 source
Système de vision par projection de franges pour le démontage autonome de disques durs
380arXiv cs.RO 

Système de vision par projection de franges pour le démontage autonome de disques durs

Des chercheurs ont publié sur arXiv (2604.17231) un pipeline de vision entièrement autonome conçu pour le démontage robotique de disques durs (HDD), une catégorie de déchets électroniques à forte valeur récupérable. Le système repose sur un module de profilométrie par projection de franges (Fringe Projection Profilometry, FPP) qui génère des cartes de profondeur 3D haute résolution, complété par un module de reconstruction de profondeur (depth completion) activé sélectivement là où le FPP échoue, notamment sur les surfaces réfléchissantes des plateaux magnétiques. Ce module de complétion utilise le backbone Depth Anything V2 Base et atteint un RMSE de 2,317 mm et un MAE de 1,836 mm. La segmentation d'instance temps réel, intégrée dans le même pipeline, obtient un box mAP@50 de 0,960 et un mask mAP@50 de 0,957. L'ensemble de la stack d'inférence affiche une latence combinée de 12,86 ms et un débit de 77,7 images par seconde sur le poste d'évaluation. Le dataset synthétique développé pour la segmentation des composants HDD sera rendu public. L'intérêt technique central de cette approche réside dans le choix d'utiliser le même système caméra-projecteur FPP pour la perception 3D et la localisation des composants : les cartes de profondeur et les masques de segmentation sont nativement alignés pixel par pixel, sans étape de recalage. C'est un avantage direct sur les systèmes RGB-D industriels classiques, qui nécessitent une calibration extrinsèque entre capteur de profondeur et caméra couleur, source d'erreurs en conditions réelles. Pour les intégrateurs de cellules de démontage automatisé, cela réduit significativement la complexité système et le risque de dérive de calibration en production. Le démontage automatisé de déchets électroniques reste un domaine peu industrialisé malgré son potentiel économique : les HDD contiennent des terres rares, des aimants en néodyme et des plateaux en aluminium à valeur de récupération non négligeable. Les approches existantes sont fragmentées, traitent séparément la vision 3D et la localisation des fixations (vis, clips), sans pipeline unifié. Ce travail adresse précisément ce manque. Sur le plan concurrentiel, des acteurs comme Recycleye (UK) ou Greyparrot travaillent sur la vision pour le tri de déchets, mais le démontage structuré de composants électroniques à l'échelle robotique reste un espace encore ouvert. Le transfert sim-to-real utilisé ici pour augmenter les données d'entraînement est une approche désormais standard mais dont la robustesse sur des surfaces hautement spéculaires comme les plateaux HDD mérite validation sur ligne industrielle réelle.

RecherchePaper
1 source
Contrôle en régime périodique permanent de la rotation d'un mouchoir par un poignet anti-parallélogramme à tendons
381arXiv cs.RO 

Contrôle en régime périodique permanent de la rotation d'un mouchoir par un poignet anti-parallélogramme à tendons

Des chercheurs ont présenté un poignet robotique dextre capable de faire tournoyer un foulard souple avec une précision comparable aux performances de magie acrobatique chinoise traditionnelle. Le système, soumis à l'ICRA 2026, repose sur une structure dite anti-parallélogramme parallèle à transmission par tendons, offrant une rotation omnidirectionnelle de 90 degrés avec une inertie réduite et un découplage des axes roulis-tangage. Le contrôle est organisé en deux niveaux hiérarchiques : un niveau haut pour la stratégie périodique, un niveau bas pour le suivi en temps réel. Pour modéliser le comportement du foulard, les auteurs ont développé un modèle particule-ressort à usage de commande, permettant d'évaluer les stratégies avant déploiement matériel. Les expériences sur prototype aboutissent à un taux de dépliage du foulard d'environ 99 % et une erreur de suivi d'extrémité de doigt de 2,88 mm en RMSE durant la phase de rotation haute dynamique. Ce résultat s'attaque à un problème longtemps considéré comme hors de portée des systèmes de manipulation robotique : le contrôle d'objets souples à contacts frictionnels avec contraintes aux bords, sous dynamique non linéaire et régime périodique. L'atteinte d'un état stationnaire stable à partir du repos ("rest-to-steady-state") pour un objet aussi peu rigide qu'un tissu représente un verrou technique significatif. Le fait que ce soit réalisable avec un actionnement par tendons légers, sans capteurs inertiels complexes embarqués sur le poignet, démontre l'intérêt d'une co-conception mécanique et algorithmique orientée tâche. Pour les concepteurs de main robotique ou les équipes travaillant sur la manipulation textile (industrie du vêtement, logistique souple), c'est une validation de l'approche modèle de contrôle + architecture mécanique dédiée plutôt que l'apprentissage bout-en-bout seul. Le travail s'inscrit dans un courant de recherche actif sur la manipulation d'objets déformables, où des équipes comme Biorobotics Lab à l'EPFL, le Manipulation Lab de Carnegie Mellon ou le groupe de Pieter Abbeel à Berkeley ont posé les bases théoriques. La spécificité ici est le choix d'une tâche hautement symbolique et physiquement exigeante comme banc d'essai de validation. La transmission par tendons est une architecture partagée par plusieurs mains robotiques commerciales ou semi-commerciales (Allegro Hand, LEAP Hand), ce qui facilite potentiellement la transférabilité du poignet. Les prochaines étapes naturelles seraient l'intégration avec un bras complet humanoïde et l'extension à d'autres objets souples, tissus industriels ou câbles, dans des contextes de production automatisée.

UELe Biorobotics Lab de l'EPFL est cité comme référence théorique, mais l'étude provient d'une équipe non identifiée soumise à l'ICRA 2026 sans lien direct avec des industriels ou institutions françaises ou européennes.

RecherchePaper
1 source
Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot
382arXiv cs.RO 

Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot

Une équipe de chercheurs a développé SNOOPIE (Snoopie Pacerbot), un robot quadrupède autonome conçu pour servir d'entraîneur personnel lors de séances d'interval training. Publié sur arXiv (2604.18331), le travail porte sur une tâche spécifique : guider des coureurs à maintenir un rythme précis sur des intervalles répétés, une discipline où la régularité est critique. Dans les expériences utilisateurs menées, les participants équipés du robot ont respecté leur plan de cadence avec 60,6 % de précision supplémentaire par rapport à un groupe utilisant une Apple Watch, et ont maintenu une vitesse de course 45,9 % plus régulière d'un intervalle à l'autre. Sur le plan subjectif, la préférence pour le robot sur le wearable est nette : facilité d'utilisation (+56,7 %), plaisir de l'interaction (+60,6 %), sentiment d'être bien accompagné (+39,1 %). Ces résultats soulèvent une question concrète pour les intégrateurs et les concepteurs de systèmes d'entraînement connecté : la présence physique incarnée d'un robot apporte-t-elle une valeur ajoutée mesurable par rapport à un écran ou un capteur poignet ? L'étude suggère que oui, au moins dans ce cas précis. Le robot peut ajuster son allure en temps réel, maintenir une distance constante avec le coureur, et fournir un retour visuel et cinétique que ni une montre ni une application mobile ne peuvent reproduire. Cela conforte l'hypothèse que l'embodiment robotique n'est pas qu'un argument marketing dans les contextes d'interaction physique prolongée : il modifie effectivement le comportement de l'utilisateur. Ces données restent néanmoins issues d'une étude de laboratoire à effectif limité, et les conditions réelles (terrain variable, foule, météo) n'ont pas été testées. Les robots quadrupèdes agiles comme ceux de Boston Dynamics (Spot) ou les plateformes issues des travaux de l'ETH Zurich et de CMU ont ouvert la voie à une nouvelle génération de robots capables de se déplacer de manière fiable dans des environnements non structurés. SNOOPIE s'inscrit dans cette lignée en poussant l'usage vers une application grand public et de bien-être, un territoire encore peu exploré par l'industrie. Les concurrents directs dans le créneau coaching physique robotisé sont quasi inexistants à ce stade commercial, mais des entreprises comme Agility Robotics ou Unitree pourraient théoriquement adapter leurs plateformes à ce type d'usage. Les suites annoncées par l'équipe incluent des tests en conditions extérieures et l'intégration de retours verbaux, avec l'ambition de transformer SNOOPIE en dispositif d'entraînement personnalisé adaptatif à plus long terme.

RecherchePaper
1 source
Géwu : un environnement interactif en ligne pour l'apprentissage par renforcement en robotique
383arXiv cs.RO 

Géwu : un environnement interactif en ligne pour l'apprentissage par renforcement en robotique

Une équipe de chercheurs a publié le 23 avril 2026 Web-Gewu (arXiv:2604.17050), une plateforme pédagogique de robotique conçue pour permettre l'entraînement par renforcement (RL) directement depuis un navigateur web, sans installation locale. L'architecture repose sur un modèle cloud-edge-client s'appuyant sur WebRTC : toute la simulation physique et l'entraînement RL sont déportés sur un nœud edge, tandis que le serveur cloud ne joue qu'un rôle de relais de signalisation léger. La communication entre l'apprenant et le nœud de calcul s'effectue en pair-à-pair (P2P), avec une latence bout-en-bout annoncée comme faible, sans que des chiffres précis soient fournis dans le préprint. Les apprenants visualisent en temps réel les courbes de récompense RL et interagissent avec plusieurs formes de robots simulés, le tout via un protocole de communication de commandes prédéfini. L'intérêt de cette approche est structurel : elle attaque directement les deux verrous qui freinent l'enseignement de la robotique incarnée à grande échelle. D'un côté, les solutions cloud centralisées existantes entraînent des coûts GPU et de bande passante prohibitifs pour un déploiement massif en contexte éducatif. De l'autre, le calcul purement local bute sur les limitations matérielles des apprenants, souvent sans GPU dédié. En déplaçant la charge vers un nœud edge mutualisé et en réduisant le cloud à un simple relais, Web-Gewu réduit significativement le coût marginal par apprenant. Pour les institutions qui cherchent à former des ingénieurs au RL appliqué à la robotique, c'est un argument concret, même si la robustesse à l'échelle reste à démontrer hors environnement de laboratoire. Ce travail s'inscrit dans une tendance plus large de démocratisation des outils de simulation robotique, portée notamment par des environnements comme Isaac Sim (NVIDIA), MuJoCo (DeepMind/Google) ou encore Genesis, tous nécessitant des ressources locales ou des accès cloud coûteux. Web-Gewu se positionne dans un créneau différent, celui de la formation et de l'expérimentation accessible, plutôt que de la recherche haute performance. Le code source n'est pas encore public au moment de la soumission, et la plateforme reste au stade de prototype académique avec une instance de démonstration exposée à l'adresse IP indiquée dans le papier. Les prochaines étapes naturelles seraient une évaluation quantitative de la latence, une montée en charge sur plusieurs dizaines d'apprenants simultanés, et une ouverture du code pour permettre un déploiement institutionnel autonome.

RecherchePaper
1 source
Visual-RRT : planification de chemins vers des objectifs visuels par rendu différentiable
384arXiv cs.RO 

Visual-RRT : planification de chemins vers des objectifs visuels par rendu différentiable

Des chercheurs du laboratoire SGVR de l'université KAIST (Corée du Sud) ont publié en avril 2026 Visual-RRT (vRRT), un planificateur de mouvement pour bras manipulateurs capables de naviguer vers un objectif défini par une image ou une vidéo, sans configuration articulaire numérique explicite. La méthode combine les arbres à exploration rapide aléatoire (RRT), algorithme classique de planification de trajectoire, avec le rendu différentiable du robot pour guider la recherche par gradient visuel. Deux mécanismes complémentaires ont été introduits : une stratégie d'exploration-exploitation à frontières adaptatives, qui priorise les régions de l'espace de configuration visuellement prometteuses, et une expansion inertielle par gradient, qui propage les états d'optimisation entre les branches de l'arbre pour garantir une cohérence dynamique du gradient. Les expériences couvrent trois manipulateurs standard de l'industrie et de la recherche : Franka Emika Panda, Universal Robots UR5e, et Fetch Robotics, en simulation et en environnement réel. L'apport technique fondamental réside dans la suppression d'un prérequis contraignant des planificateurs RRT classiques : la nécessité de spécifier la configuration-but sous forme d'angles articulaires précis. Dans les applications réelles d'automatisation ou d'apprentissage par démonstration, l'opérateur dispose le plus souvent d'une vidéo ou d'une photo de l'état-cible, pas d'un vecteur de joints. vRRT comble ce fossé en projetant l'espace visuel dans l'espace de configuration via rendu différentiable, ce qui permet d'utiliser un signal d'erreur visuel directement comme fonction de coût pour l'exploration. C'est un pas vers des systèmes robotiques plus faciles à programmer par l'exemple, sans calibration manuelle de la configuration finale. Les RRT sont un acquis algorithmique des années 1990-2000 (Steven LaValle, 1998), massivement utilisés dans la robotique industrielle et les véhicules autonomes. L'intégration du rendu différentiable, popularisée par des frameworks comme PyTorch3D ou Mitsuba 3, dans la planification de trajectoire est une tendance émergente depuis 2022-2023. Sur ce créneau, des travaux concurrents explorent les Visual Language Action models (VLA) comme pi-0 de Physical Intelligence ou les approches basées sur la diffusion pour la planification. vRRT se distingue par sa modularité sur des RRT existants et sa compatibilité avec des architectures standard. Le code source est disponible publiquement. Aucune collaboration industrielle ni calendrier de déploiement n'est mentionné dans la publication ; il s'agit à ce stade d'un résultat de recherche académique, pas d'un produit commercialisé.

RecherchePaper
1 source
Discussion sur la prédiction de trajectoires conditionnelles
385arXiv cs.RO 

Discussion sur la prédiction de trajectoires conditionnelles

Des chercheurs ont déposé en avril 2026 sur arXiv (référence 2604.18126) une nouvelle méthode de prédiction de trajectoire conditionnelle baptisée CiT, pour Cross-time-domain intention-interactive method for conditional Trajectory prediction. L'objectif est de permettre à un robot évoluant parmi des humains ou d'autres agents mobiles de prédire précisément leurs trajectoires futures, en tenant compte non seulement de leurs interactions sociales mutuelles, mais aussi du mouvement propre du robot lui-même. Le système génère un ensemble de trajectoires candidates pour chaque agent environnant, en fonction des intentions de déplacement possibles de l'ego agent. Testé sur plusieurs benchmarks standards du domaine, CiT dépasse selon ses auteurs les méthodes de l'état de l'art existantes. La distinction centrale de CiT par rapport aux approches concurrentes réside dans l'intégration explicite du mouvement de l'ego agent dans la boucle de prédiction. La quasi-totalité des méthodes existantes modélisent les interactions sociales à partir d'informations statiques, ignorant le fait que le robot lui-même modifie le comportement des agents qui l'entourent. CiT s'inspire du concept de "théorie de l'esprit" en robotique sociale : chaque agent anticipe les intentions des autres pour ajuster les siennes. Techniquement, la méthode opère une analyse conjointe des intentions comportementales sur plusieurs domaines temporels, permettant aux informations d'interaction d'un domaine de corriger et affiner les estimations d'intention de l'autre. Cette complémentarité temporelle est présentée comme le levier principal du gain de performance. Pour des intégrateurs de systèmes de navigation autonome ou de robots collaboratifs (cobots), cette capacité à modéliser la réciprocité comportementale est directement exploitable dans des modules de planification de chemin et de contrôle. La prédiction de trajectoire conditionelle est un champ de recherche en pleine activité, alimenté par les besoins des véhicules autonomes et de la robotique de service. Des équipes comme Waymo, NVIDIA (avec son framework Isaac Perceptor) ou des laboratoires académiques comme Stanford et ETH Zurich ont posé les bases de la modélisation sociale de trajectoires. CiT s'inscrit dans cette lignée en ciblant explicitement les systèmes d'interaction humain-robot, un segment distinct des systèmes véhiculaires. L'article reste à ce stade un preprint non évalué par les pairs, sans données de déploiement réel ni validation hors benchmarks publics, ce qui limite l'interprétation des résultats annoncés. Les prochaines étapes naturelles seraient une validation en conditions réelles et une intégration dans des architectures ROS2 ou similaires.

RecherchePaper
1 source
HAVEN : navigation hiérarchique sensible aux adversaires, visibilité et couverts par réseaux Q à transformeurs profonds
386arXiv cs.RO 

HAVEN : navigation hiérarchique sensible aux adversaires, visibilité et couverts par réseaux Q à transformeurs profonds

Des chercheurs ont publié sur arXiv (arXiv:2512.00592v2) un framework de navigation autonome baptisé HAVEN, Hierarchical Adversary-aware Visibility-Enabled Navigation, conçu pour faire évoluer des agents robotiques dans des environnements partiellement observables, c'est-à-dire là où les capteurs ne voient pas tout et où des obstacles occultent une partie de la scène. L'architecture combine un réseau de neurones de type Deep Transformer Q-Network (DTQN) pour la sélection de sous-objectifs à haut niveau, et un contrôleur bas niveau à champs de potentiel pour l'exécution des waypoints. Le DTQN ingère des historiques courts de features contextuelles, odométrie, direction de l'objectif, proximité des obstacles, indices de visibilité, et produit des Q-values qui classent les sous-objectifs candidats. Une génération de candidats dite "visibility-aware" introduit des pénalités d'exposition et récompense l'utilisation des couverts, favorisant un comportement anticipatoire plutôt que réactif. Le système a été validé en simulation 2D puis transféré sans modification architecturale vers un environnement 3D Unity-ROS, en projetant la perception point-cloud dans le même schéma de features. Ce travail s'attaque à un problème concret dans les déploiements robotiques réels : les planificateurs classiques (A*, RRT) et les politiques de reinforcement learning sans mémoire peinent dès que le champ de vision est limité, générant des manœuvres sous-optimales ou dangereuses dans des espaces encombrés. L'apport du Transformer réside dans sa capacité à exploiter l'historique temporel pour inférer l'état caché de l'environnement, là où un réseau feedforward réagirait à l'instant présent. Les résultats montrent des améliorations mesurées sur le taux de succès, les marges de sécurité et le temps jusqu'à l'objectif par rapport aux baselines RL et aux planificateurs classiques, bien que les expériences restent en simulation, sans banc d'essai sur hardware réel, ce qui laisse ouverte la question du sim-to-real gap. HAVEN s'inscrit dans une tendance de recherche qui applique les architectures Transformer, initialement conçues pour le NLP, au contrôle séquentiel de robots en environnements incertains. Le champ de l'autonomie sous occlusion est particulièrement actif : des travaux comme Decision Transformer ou GTrXL ont posé les bases de l'usage de la mémoire contextuelle en RL. Les domaines d'application cités par les auteurs couvrent la logistique entrepôt (AMR en environnement dynamique), la conduite urbaine et la surveillance, un positionnement qui rejoint les problématiques des acteurs de la navigation indoor comme Exotec ou Balyo côté français. La prochaine étape naturelle serait une validation sur plateforme physique et des benchmarks en environnements réels avec adversaires mobiles, conditions non encore adressées dans cette version.

UELes acteurs français de la navigation indoor comme Exotec et Balyo pourraient être concernés par cette approche de planification sous occlusion, mais le travail reste entièrement en simulation sans validation matérielle.

RecherchePaper
1 source
DAG-STL : un cadre hiérarchique pour la planification de trajectoires zéro-shot sous contraintes de logique temporelle signalée
387arXiv cs.RO 

DAG-STL : un cadre hiérarchique pour la planification de trajectoires zéro-shot sous contraintes de logique temporelle signalée

Des chercheurs ont publié DAG-STL, un cadre hiérarchique de planification de trajectoires pour robots opérant sous contraintes de Signal Temporal Logic (STL), une logique formelle permettant de spécifier des tâches robotiques structurées dans le temps. Le pipeline decompose-allocate-generate fonctionne en trois étapes : il décompose d'abord une formule STL en conditions de progression d'accessibilité et d'invariance, liées par des contraintes de synchronisation partagées ; il alloue ensuite des waypoints temporels via des estimations d'accessibilité apprises ; enfin, il synthétise les trajectoires entre ces waypoints à l'aide d'un générateur basé sur la diffusion. Les expériences ont été conduites sur trois benchmarks standards : Maze2D, OGBench AntMaze, et le domaine Cube, avec un environnement personnalisé incluant une référence par optimisation. DAG-STL surpasse significativement l'approche concurrente de diffusion guidée par robustesse directe sur des tâches STL à long horizon, et récupère la majorité des tâches solubles par optimisation classique tout en conservant un avantage computationnel notable. L'apport principal de ce travail est de résoudre la planification STL en contexte zero-shot, c'est-à-dire sans avoir jamais vu la tâche cible lors de l'entraînement, et sans modèle analytique de la dynamique du système. Pour les intégrateurs et décideurs en robotique, cela signifie qu'un robot équipé de DAG-STL pourrait recevoir une spécification temporelle formelle inédite et en dériver un plan exécutable uniquement depuis des données de trajectoires génériques préenregistrées. La séparation explicite entre raisonnement logique et réalisation physique de la trajectoire est une décision architecturale structurante : elle réduit les problèmes de planification globale long-horizon à une série de sous-problèmes plus courts et mieux couverts par les données. Le cadre introduit également une métrique de cohérence dynamique sans rollout et un mécanisme de replanification hiérarchique en ligne, deux mécanismes qui adressent directement le gap simulation-réel, sujet central des débats sur le sim-to-real dans les VLA (Vision-Language-Action models). DAG-STL s'inscrit dans un courant de recherche actif qui cherche à doter les robots d'une capacité de généralisation formellement vérifiable, à la croisée de la planification sous contraintes logiques temporelles et des modèles génératifs de trajectoires. La STL est un langage étudié depuis les années 2000 en vérification formelle, mais son application à la planification robotique offline reste difficile faute de modèles dynamiques disponibles dans des environnements réels. Les approches concurrentes incluent les méthodes d'imitation learning task-spécifiques et les planificateurs à base de modèle explicite, que DAG-STL vise à dépasser sur le critère de généralisation. Le preprint est disponible sur arXiv (2604.18343) et les prochaines étapes naturelles seraient une validation sur des plateformes physiques, notamment en manipulation et navigation réelle, pour confirmer les gains observés en simulation.

RecherchePaper
1 source
Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots
388arXiv cs.RO 

Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots

Des chercheurs ont publié sur arXiv (référence 2504.17679) un framework de navigation intérieure combinant deux familles d'algorithmes jusqu'ici utilisées séparément : la reachability hamiltonienne-jacobienne (HJ), calculée hors-ligne, et la recherche sur graphe, exécutée en ligne. Le principe : les fonctions de valeur HJ, précomputées sur la géométrie de l'environnement, servent à la fois d'heuristiques informatives et de contraintes de sécurité proactives pour guider la recherche sur graphe en temps réel. Le système a été validé en simulation extensive et dans des expériences en conditions réelles, incluant des environnements avec présence humaine. Aucun modèle de robot spécifique ni aucune entreprise commerciale ne sont mentionnés dans la publication, qui s'inscrit dans un cadre académique pur. L'intérêt principal de cette approche réside dans la gestion du compromis entre sécurité garantie et efficacité computationnelle, un point de friction classique pour les robots mobiles en intérieur (AMR, plateformes logistiques). La reachability HJ offre des garanties théoriques solides sur l'évitement d'obstacles, mais elle souffre d'une limitation structurelle : elle suppose une connaissance complète de l'environnement, ce qui la rend difficilement applicable à des espaces dynamiques ou partiellement inconnus. En intégrant la reachability comme heuristique plutôt que comme planificateur principal, les auteurs contournent cette contrainte tout en amortissant le coût de calcul en ligne. Les résultats annoncés montrent une amélioration consistante face aux méthodes de référence, tant en efficacité de planification qu'en sécurité, mais les métriques précises (temps de cycle, taux de collision) ne sont pas détaillées dans le résumé disponible. La reachability HJ est un outil issu de la théorie du contrôle optimal, historiquement utilisé pour la vérification formelle de systèmes cyber-physiques. Son application à la robotique mobile n'est pas nouvelle, mais son couplage avec des algorithmes de recherche sur graphe type A* pour surmonter la contrainte de connaissance globale de l'environnement représente une direction de recherche active. Ce travail se positionne face aux approches purement apprentissage (VLA, politiques end-to-end) en revendiquant des garanties formelles absentes des méthodes neuronales. Les prochaines étapes naturelles incluent l'extension à des espaces 3D ou à des robots non-holonomes, ainsi qu'une validation sur des plateformes industrielles réelles.

RecherchePaper
1 source
Commande optimale de robots planaires sous-actionnés différentiellement plats pour la réduction des oscillations
389arXiv cs.RO 

Commande optimale de robots planaires sous-actionnés différentiellement plats pour la réduction des oscillations

Une équipe de chercheurs a publié sur arXiv (arXiv:2603.15528v2) une étude portant sur la commande optimale des robots planaires sous-actionnés différentiellement plats, avec pour objectif principal la réduction des oscillations résiduelles de l'effecteur terminal. Les robots sous-actionnés présentent un nombre de degrés de liberté (DOF) supérieur au nombre d'actionneurs, ce qui permet de concevoir des systèmes plus légers et moins coûteux, au prix d'une complexité accrue de la commande. La propriété de platitude différentielle, applicable lorsque la distribution de masse du robot est soigneusement dimensionnée, permet de paramétrer entièrement la trajectoire du système à partir d'un ensemble réduit de variables dites "plates". Le problème identifié est précis : pour les trajectoires à faible vitesse, les modèles dynamiques simplifient souvent le frottement, une hypothèse qui induit des oscillations résiduelles de l'effecteur autour de la position cible, dégradant la précision de positionnement. Pour y remédier, les auteurs proposent de coupler la commande par platitude différentielle avec une couche de commande optimale, en minimisant des indices de performance quadratiques portant sur deux grandeurs distinctes : l'effort de commande (couple moteur) et l'énergie potentielle de l'articulation passive. La minimisation de l'énergie potentielle s'avère particulièrement intéressante car elle produit des lois de mouvement robustes aux variations de raideur et d'amortissement de l'articulation passive, un point critique lorsque les paramètres mécaniques réels dévient des valeurs nominales du modèle. Les résultats, validés par simulations numériques, montrent que cette approche réduit efficacement les oscillations sans nécessiter une modélisation exhaustive du frottement. Ce travail s'inscrit dans une tradition de recherche sur les manipulateurs sous-actionnés comme le Pendubot ou les bras à liaisons flexibles, où le compromis légèreté/contrôlabilité reste un sujet actif depuis les années 1990. La platitude différentielle, formalisée notamment par Fliess et al., trouve ici une extension vers la planification de trajectoires optimales. Les approches concurrentes incluent la commande par modes glissants et les régulateurs LQR classiques, moins adaptés aux non-linéarités de ces systèmes. L'étape suivante naturelle serait une validation expérimentale sur prototype physique, absente de cette version de l'article, ainsi qu'une extension aux robots 3D non planaires.

UELa platitude différentielle est un cadre théorique formalisé par le chercheur français Michel Fliess, mais cette extension reste au stade simulation sans partenaire industriel européen identifié.

RecherchePaper
1 source
Planification de trajectoire STL et analyse des risques pour la collaboration humain-robot avec un drone multi-rotors
390arXiv cs.RO 

Planification de trajectoire STL et analyse des risques pour la collaboration humain-robot avec un drone multi-rotors

Des chercheurs ont publié sur arXiv (référence 2509.10692, troisième révision en avril 2026) un framework de planification de mouvement et d'analyse de risque pour la collaboration humain-robot avec un véhicule aérien multirotor. Le coeur du système repose sur la Signal Temporal Logic (STL), un formalisme mathématique permettant d'encoder des objectifs de mission structurés : contraintes de sécurité, exigences temporelles, et préférences humaines incluant l'ergonomie et le confort de l'opérateur. Un planificateur par optimisation génère des trajectoires dynamiquement faisables en tenant compte des dynamiques non-linéaires du drone et de ses contraintes d'actuation. Pour résoudre le problème d'optimisation non-convexe et non-lisse qui en résulte, le framework adopte des approximations de robustesse différentiables combinées à des méthodes de gradient. Le système inclut également un mécanisme de replanification en ligne déclenché par événements, activé lorsque des perturbations menacent les marges de sécurité. La validation s'appuie exclusivement sur des simulations MATLAB et Gazebo, sur une tâche de remise d'objet inspirée de la maintenance de lignes électriques. Ce travail adresse un verrou réel dans le déploiement de drones en environnement industriel partagé : la cohabitation sûre avec des techniciens humains dont la posture est incertaine et dynamique. L'analyse de risque probabiliste quantifie la vraisemblance de violations de spécifications sous incertitude de pose humaine, ce qui représente une avancée par rapport aux approches conservatrices à marge fixe. La replanification événementielle permet une récupération en ligne sans interrompre la mission, un critère déterminant pour les applications en conditions réelles. Cela dit, l'absence de validation physique sur hardware réel constitue une limite importante : le gap sim-to-real pour les drones en proximité humaine reste un problème ouvert, et les résultats en simulation Gazebo ne peuvent pas être directement extrapolés à un déploiement terrain. Le contexte de ce travail s'inscrit dans un effort plus large de la communauté robotique aérienne pour rendre les drones industriels opérables à proximité immédiate des travailleurs, notamment dans les secteurs de l'énergie et de la maintenance d'infrastructures. Côté concurrence, des acteurs comme Skydio (USA) ou Flyability (Suisse) avancent sur des drones robustes en environnement contraint, mais sans formalisme STL ni modèle explicite d'interaction humain-robot. En Europe, des projets académiques financés par l'ANR et H2020 explorent des pistes similaires. La prochaine étape naturelle pour ce framework serait une validation sur banc physique avec un multirotor réel et des opérateurs humains instrumentés, condition sine qua non avant toute intégration industrielle.

UEDes projets ANR et H2020 explorent des approches similaires ; ce framework STL pourrait alimenter la recherche européenne sur les drones industriels en proximité humaine, notamment pour la maintenance d'infrastructures énergétiques.

RecherchePaper
1 source
GaLa : des modèles vision-langage guidés par hypergraphe pour la planification procédurale
391arXiv cs.RO 

GaLa : des modèles vision-langage guidés par hypergraphe pour la planification procédurale

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.17241) un nouveau framework vision-langage baptisé GaLa, conçu pour améliorer la planification procédurale dans les systèmes d'IA incarnée. Le système repose sur une représentation par hypergraphe : chaque objet détecté dans une scène devient un nœud, tandis que des hyper-arêtes agrègent ces objets selon leurs attributs fonctionnels et leur sémantique pour former des régions cohérentes. GaLa intègre également un encodeur baptisé TriView HyperGraph Encoder, qui impose une cohérence sémantique entre trois niveaux de représentation (vue nœud, vue zone, vue association nœud-zone) via apprentissage contrastif. Les expériences menées sur les benchmarks ActPlan1K et ALFRED montrent des gains significatifs sur le taux de succès d'exécution, le score LCS (Longest Common Subsequence) et la correction des plans générés, sans que les auteurs ne publient de chiffres absolus précis dans le résumé disponible. Ce travail cible un problème bien documenté dans la robotique d'interaction : les VLMs (Vision-Language Models) actuels raisonnent correctement sur du langage et de l'image de façon isolée, mais peinent à saisir les relations spatiales implicites et la hiérarchie fonctionnelle d'une scène réelle. Pour un robot devant exécuter une séquence de tâches domestiques (préparer un repas, ranger des objets), comprendre que le plan de travail et le réfrigérateur appartiennent à la même région fonctionnelle change radicalement la qualité du plan généré. GaLa propose une couche de structuration explicite en amont du raisonnement VLM, ce qui réduit la dépendance aux capacités d'inférence implicite des modèles de fondation et ouvre la voie à une meilleure généralisation sur des scènes non vues. Le benchmark ALFRED, développé par Allen AI, est devenu la référence standard pour évaluer la planification procédurale en environnement simulé domestique, et ActPlan1K cible des scénarios procéduraux plus complexes. La tendance actuelle dans ce sous-domaine consiste à enrichir les VLMs généralistes (GPT-4o, LLaVA, InternVL) avec des modules de représentation structurée, une approche que GaLa pousse plus loin que les travaux précédents via l'hypergraphe. Les concurrents directs incluent des travaux comme SQA3D, EmbodiedScan ou les pipelines VLA (Vision-Language-Action) de Physical Intelligence (pi0) et de Google DeepMind, qui cherchent eux aussi à réduire le gap simulation-réel. GaLa reste pour l'instant un résultat de recherche académique sans déploiement physique annoncé.

RechercheActu
1 source
Modèles de diffusion séquentiels pour l'apprentissage méta en contexte de la dynamique des robots
392arXiv cs.RO 

Modèles de diffusion séquentiels pour l'apprentissage méta en contexte de la dynamique des robots

Des chercheurs ont publié sur arXiv (réf. 2604.13366) une étude comparative portant sur l'identification de systèmes robotiques par méta-apprentissage en contexte, en opposant des modèles de séquences déterministes à des approches génératives basées sur la diffusion. L'équipe reformule le problème classique de l'identification de dynamiques robotiques comme une tâche de méta-apprentissage in-context : le modèle observe une séquence de paires (commande, observation) pour inférer les paramètres dynamiques d'un robot sans re-entraînement. Deux architectures de diffusion sont introduites et évaluées face à une baseline Transformer déterministe : une diffusion par inpainting (inspirée de Diffuser), qui apprend la distribution jointe entrée-observation, et des modèles de diffusion conditionnés sur les entrées de contrôle, déclinés en versions CNN et Transformer. Les expériences sont menées à grande échelle dans des simulations randomisées couvrant des régimes en distribution et hors distribution. Ces résultats sont significatifs pour la commande basée sur modèle (model-based control), qui exige des prédictions de dynamique précises et robustes. L'étude montre que les modèles de diffusion surpassent nettement la baseline déterministe lorsque les conditions d'exécution s'écartent de la distribution d'entraînement, un scénario courant dans les déploiements industriels réels où les robots rencontrent des charges utiles variables, des surfaces inattendues ou de l'usure mécanique. La diffusion par inpainting obtient les meilleures performances globales. Un résultat clé concerne la contrainte temps réel : grâce à un échantillonnage à démarrage chaud (warm-started sampling), les modèles de diffusion parviennent à opérer dans les fenêtres temporelles exigées par les boucles de contrôle, levant ainsi un obstacle majeur à leur adoption pratique. Ce travail s'inscrit dans un courant de recherche actif qui cherche à combiner les capacités génératives des modèles de diffusion avec les exigences de robustesse et de latence du contrôle robotique. La diffusion appliquée à la planification de trajectoires et à la prédiction de dynamiques a émergé avec des travaux comme Diffuser (Janner et al., 2022) et se confronte ici à un scénario de méta-apprentissage, plus réaliste pour des robots déployés dans des environnements variables. Les concurrents directs incluent les approches probabilistes bayésiennes et les réseaux neuronaux récurrents pour l'identification en ligne. La prochaine étape naturelle sera une validation sur hardware réel, notamment pour confirmer que les gains hors distribution observés en simulation résistent au sim-to-real gap.

RecherchePaper
1 source
Arrêt d'urgence pour robots manipulant des liquides
393arXiv cs.RO 

Arrêt d'urgence pour robots manipulant des liquides

Des chercheurs ont publié sur arXiv (référence 2604.16667) une méthode d'arrêt d'urgence pour robots manipulant des contenants liquides ouverts. Le système génère des trajectoires d'arrêt optimales en temps minimal sans provoquer de renversement, en résolvant un problème de contrôle optimal dans un cadre de commande prédictive par modèle (MPC). La validation expérimentale a été réalisée sur un bras Franka Emika Panda à 7 degrés de liberté, en complément de simulations. L'approche se présente comme une couche de sécurité plug-and-play superposable aux planificateurs de trajectoire anti-éclaboussures existants, sans les remplacer. Le problème adressé est concret : la manipulation de liquides en contenants ouverts est déjà difficile en régime nominal, car les liquides réagissent fortement aux accélérations et aux à-coups du bras porteur. Mais les scénarios d'urgence, ceux où un opérateur entre dans la zone de travail ou qu'un capteur détecte un obstacle imprévu, n'ont jusqu'ici reçu que peu d'attention dans la littérature. Un arrêt brusque classique génère des oscillations de surface susceptibles de provoquer des déversements de produits dangereux, chimiques ou alimentaires. La contribution ici est de coupler la dynamique non-linéaire des fluides au MPC pour calculer en temps réel la trajectoire d'arrêt la plus rapide qui reste dans les limites de sécurité anti-débordement, ce qui est non trivial dès que le contenant n'est pas rempli à ras bord. La manipulation de liquides par robot est un sujet actif depuis une décennie, porté notamment par des travaux sur le sloshing control et les trajectoires de type bang-bang modifiées. Le Franka Panda est le banc d'essai académique standard, ce qui facilite la reproductibilité mais limite la portée industrielle directe : les bras collaboratifs déployés en laboratoire pharmaceutique ou agroalimentaire ont des dynamiques différentes. Les prochaines étapes logiques seraient une validation sur des robots industriels à plus haute vitesse (KUKA, Fanuc) et l'intégration avec des systèmes de détection d'obstacles en temps réel type LiDAR ou vision. Aucun partenaire industriel ni calendrier de transfert n'est mentionné dans la publication.

RecherchePaper
1 source
Optimisation par diffusion pour accélérer la convergence des problèmes à temps minimal sur bras doubles redondants
394arXiv cs.RO 

Optimisation par diffusion pour accélérer la convergence des problèmes à temps minimal sur bras doubles redondants

Une équipe de chercheurs a publié sur arXiv (ref. 2504.16670) un cadre d'optimisation par diffusion pour résoudre le problème du temps minimum de déplacement sur un robot à double bras redondant. L'objectif est de minimiser le temps nécessaire pour qu'une configuration dual-arm suive un chemin cartésien relatif défini, tout en respectant les contraintes articulaires et l'erreur cartésienne. Les résultats annoncés sont significatifs : réduction de 35x du temps de calcul et diminution de 34 % de l'erreur cartésienne par rapport à la méthode précédente des mêmes auteurs, qui reposait sur une approche bi-niveaux avec résolution primal-dual. Ce gain de performance est important pour la robotique industrielle collaborative, où les bras doubles, typiquement utilisés en assemblage, en manipulation d'objets encombrants ou en chirurgie assistée, doivent exécuter des trajectoires précises dans des temps de cycle serrés. La méthode antérieure, basée sur le gradient, souffrait de deux limitations structurelles : une charge de calcul élevée rendant la planification en quasi-temps-réel difficile, et une incapacité à imposer directement une contrainte d'erreur cartésienne en norme infinie (L∞) le long de la trajectoire, en raison de la sparsité du gradient. Le passage à un échantillonnage probabiliste via un algorithme de diffusion permet de contourner ces deux problèmes simultanément, ce qui constitue une avancée méthodologique réelle, même si les benchmarks restent pour l'instant sur simulation. Le contexte est celui de l'essor des planificateurs de mouvement basés sur l'apprentissage et les méthodes probabilistes pour les robots à haute redondance cinématique. Les approches par diffusion, popularisées dans la génération d'images puis étendues à la robotique via des travaux comme pi0 (Physical Intelligence) ou des planificateurs de trajectoire neuronaux, gagnent du terrain face aux solveurs classiques (CHOMP, TrajOpt) sur des critères de vitesse et de généralisation. Ce travail s'inscrit dans cette tendance en restant ancré dans un cadre d'optimisation formelle (contrôle optimal), ce qui lui confère une interprétabilité que les approches purement end-to-end n'offrent pas encore. La prochaine étape naturelle serait une validation sur hardware physique avec contraintes temps-réel.

RecherchePaper
1 source
Learning-Based Sparsification of Dynamic Graphs in Robotic Exploration Algorithms
395arXiv cs.RO 

Learning-Based Sparsification of Dynamic Graphs in Robotic Exploration Algorithms

Des chercheurs ont publié sur arXiv (arXiv:2504.16509) une architecture transformer entraînée par apprentissage par renforcement, spécifiquement l'algorithme PPO (Proximal Policy Optimization), pour élaguer dynamiquement les graphes de planification utilisés dans les algorithmes d'exploration robotique. Le système cible les graphes RRT (Rapidly Exploring Random Trees) employés dans l'exploration par frontières, une méthode classique où un robot identifie les limites entre zones cartographiées et inconnues pour piloter sa navigation. En simulation, le framework réduit la taille des graphes jusqu'à 96 % sans intervention humaine, en prenant des décisions de suppression de nœuds en temps réel pendant que le robot explore son environnement. L'intérêt opérationnel est direct : dans les systèmes d'exploration autonome longue durée, entrepôts, sites industriels, bâtiments en intervention d'urgence, les graphes de planification grossissent de façon non bornée et dégradent les performances au fil du temps, forçant soit des redémarrages, soit des architectures mémoire coûteuses. Ici, la politique apprise parvient à associer des décisions locales d'élagage à des résultats d'exploration globaux malgré un signal de récompense rare et retardé, ce qui constitue le résultat le plus difficile à obtenir en RL appliqué à la planification. En contrepartie, le taux d'exploration moyen est légèrement inférieur aux baselines non élagués, mais l'écart-type de couverture est le plus bas observé : le robot explore moins vite, mais de façon nettement plus prévisible d'un environnement à l'autre, un critère souvent plus pertinent en déploiement industriel que la vitesse brute. La sparsification de graphes dynamiques est un problème connu en SLAM et planification de mouvement, traditionnellement traité par des heuristiques géométriques ou des seuils fixes. Appliquer du RL à cette couche basse de la pile robotique est, selon les auteurs, une première. Le travail reste à ce stade une preuve de concept en simulation, sans validation sur hardware réel ni comparaison avec des systèmes commerciaux comme les AMR de MiR, Fetch Robotics ou Exotec. Les prochaines étapes naturelles seraient un transfert sim-to-real et une évaluation sur des graphes issus de LiDAR 3D, contexte dans lequel la croissance exponentielle des graphes est particulièrement problématique.

RecherchePaper
1 source
De la cinématique à la dynamique : apprendre à affiner des plans hybrides pour une exécution physiquement faisable
396arXiv cs.RO 

De la cinématique à la dynamique : apprendre à affiner des plans hybrides pour une exécution physiquement faisable

Une équipe de chercheurs présente dans un préprint arXiv (2604.12474, avril 2026) une méthode d'apprentissage par renforcement (RL) conçue pour corriger les trajectoires générées par des planificateurs hybrides temporels avant exécution réelle sur un robot. Le problème central est classique : lorsqu'un robot doit traverser une séquence de régions spatiales en respectant des contraintes de délais, de fenêtres temporelles et de limites en vitesse ou accélération, les planificateurs hybrides actuels modélisent le mouvement via des dynamiques linéaires du premier ordre (cinématique pure), sans tenir compte des contraintes physiques réelles du système. Il en résulte des plans qui sont logiquement valides mais dynamiquement infaisables. Les auteurs formalisent ce problème de raffinement comme un processus de décision markovien (MDP) intégrant explicitement des contraintes analytiques du second ordre (accélération, couple) et entraînent un agent RL en espace continu pour transformer le plan initial en une trajectoire exécutable. L'intérêt pratique est direct pour les intégrateurs et les équipes robotique : le sim-to-real gap le plus coûteux n'est souvent pas dans la perception ou la préhension, mais dans le suivi de trajectoire. Un plan validé par un planificateur symbolique peut générer des couples impossibles ou des profils de vitesse non bornés, forçant les équipes terrain à retoucher les trajectoires à la main ou à surcontraindre le planificateur. La méthode proposée agit comme une couche de post-traitement apprenante qui récupère la faisabilité physique de manière fiable, sans rejeter la séquence d'actions de haut niveau, et sans nécessiter une re-planification complète. Cela positionne l'approche comme un outil de robustification entre le niveau symbolique et le contrôleur bas niveau, un segment peu adressé dans la littérature. Les planificateurs hybrides temporels comme PDDL+ ou ENHSP tentent depuis une décennie d'intégrer la dynamique continue dans la planification symbolique, avec des résultats limités dès que les modèles s'éloignent de la linéarité. Les approches concurrentes incluent le MPC (Model Predictive Control) et les méthodes de trajectory optimization (iLQR, MPPI), mais elles supposent généralement un plan discret déjà fixé ou ignorent les contraintes temporelles symboliques. La contribution ici est leur combinaison explicite via RL. Le papier reste au stade de la preuve de concept sur des scénarios de navigation structurés ; les prochaines étapes naturelles seraient la validation sur hardware avec des dynamiques plus riches (bras manipulateurs, humanoïdes) et des benchmarks comparatifs contre MPC sur des horizons longs.

RecherchePaper
1 source
Locomotion d'un robot serpent élastique par dynamique naturelle
397arXiv cs.RO 

Locomotion d'un robot serpent élastique par dynamique naturelle

Des chercheurs ont publié le 24 avril 2026 sur arXiv (référence 2604.17895) une étude portant sur la locomotion d'un robot serpent élastique exploitant ses dynamiques naturelles pour améliorer l'efficacité énergétique de ses déplacements. L'approche repose sur la théorie des eigenmanifolds, un cadre mathématique permettant de caractériser les comportements dynamiques non linéaires de systèmes mécaniques complexes. Les auteurs ont conçu et testé deux familles d'allures (gaits) fondées sur ces dynamiques naturelles : l'une basée sur la commutation entre deux modes normaux non linéaires, l'autre sur des trajectoires périodiques dites "non-brake orbits". Les simulations dynamiques montrent que les gaits par non-brake orbits atteignent une efficacité parfaite dans le cas conservatif (sans frottement), et surpassent un robot rigide de référence dans un scénario réaliste avec frottement. La commutation entre modes normaux non linéaires, en revanche, n'apporte pas de gain d'efficacité significatif par rapport à la baseline. Ces résultats ont des implications concrètes pour la conception de robots locomoteurs à corps mou ou semi-élastique. L'idée d'exploiter la compliance mécanique plutôt que de la compenser par du contrôle actif est une hypothèse ancienne dans la robotique bio-inspirée, mais elle restait difficile à formaliser rigoureusement pour des systèmes non linéaires. Cette publication fournit un cadre analytique opérationnel : la théorie des eigenmanifolds permet d'identifier des trajectoires naturelles exploitables, réduisant le coût de transport sans augmenter la complexité du contrôleur. Pour les intégrateurs et concepteurs de systèmes d'inspection en espace confiné, tuyaux ou structures irrégulières, cela ouvre une voie vers des plateformes plus autonomes énergétiquement, réduisant la dépendance à des batteries lourdes ou à des liaisons filaires. Les robots serpents élastiques s'inscrivent dans une tradition de recherche en locomotion bio-inspirée qui remonte aux travaux des années 1990 sur les serpentins modulaires (CMU Biorobotics Lab, SINTEF en Norvège). La théorie des eigenmanifolds, issue de la mécanique analytique, a été appliquée récemment à des robots à pattes et des manipulateurs élastiques avant d'être étendue ici aux systèmes sériels à haute redondance cinématique. Côté concurrents, des groupes comme le Dynamic Robotics and Control Lab de l'ETH Zurich ou le groupe ANYbotics travaillent sur la compliance passive pour la locomotion, mais sur des architectures à pattes. Dans l'espace serpent/continuum, des acteurs comme Medrobotics (médical) ou des spin-offs académiques européens explorent des niches applicatives. L'étape suivante identifiée par les auteurs est la validation expérimentale sur prototype physique, absente de cette publication, ce qui maintient les résultats au stade de la preuve de concept simulée.

RecherchePaper
1 source
Greedy Kalman-Swarm : amélioration de l'estimation d'état dans les essaims de robots en environnements difficiles
398arXiv cs.RO 

Greedy Kalman-Swarm : amélioration de l'estimation d'état dans les essaims de robots en environnements difficiles

Des chercheurs ont publié sur arXiv (référence 2604.16868) une méthode de filtrage de Kalman distribué baptisée "Greedy Kalman-Swarm", conçue pour améliorer l'estimation d'état dans les essaims de robots opérant en environnements dégradés. Le principe : chaque robot intègre, à chaque itération, l'ensemble des données de voisinage disponibles au moment précis du calcul, sans attendre une synchronisation globale. Contrairement aux approches classiques qui requièrent soit un nœud centralisateur, soit des protocoles de communication lourds pour atteindre un consensus collectif, cette méthode fonctionne de façon purement locale. Les simulations menées dans des environnements à connectivité contrainte montrent que le système reste fonctionnel même en cas de perte partielle de données entre agents, tout en maintenant une précision supérieure à celle d'un filtre de Kalman purement individuel. L'enjeu industriel est réel pour les déploiements multi-robots en milieu non structuré. La plupart des architectures d'essaim actuelles butent sur un compromis difficile : la précision collective nécessite soit une infrastructure de communication fiable et à large bande passante, soit une unité centrale de fusion de données, deux hypothèses rarement tenables sur le terrain. Le Greedy Kalman-Swarm démontre qu'une cohésion globale peut émerger de comportements locaux greedy, sans consensus explicitement imposé. C'est un résultat qui contredit l'intuition dominante selon laquelle la précision collective exige de la coordination synchrone, et qui ouvre la voie à des essaims véritablement autonomes dans des conditions adverses, sans dépendance à une infrastructure fixe. Le filtrage de Kalman est une brique fondamentale de l'estimation d'état en robotique depuis les années 1960, et son extension aux systèmes multi-agents fait l'objet de travaux actifs depuis au moins deux décennies. Les approches distribuées existantes, comme le Kalman consensus filter ou les variantes à diffusion de données, supposent généralement une topologie de communication stable ou des échanges périodiques complets. Greedy Kalman-Swarm se positionne comme une alternative légère, scalable et tolérante aux pannes. Les auteurs ciblent explicitement deux applications : la recherche et le sauvetage (search-and-rescue) en milieu sinistré, et l'exploration spatiale, deux domaines où la fiabilité des liaisons radio ne peut être garantie. Le code n'est pas encore publié et les résultats restent pour l'instant au stade de la simulation, ce qui appelle une validation sur matériel réel avant tout déploiement opérationnel.

RecherchePaper
1 source
Modélisation du contact améliorée pour lier extéroception et proprioception dans les robots à croissance progressive
399arXiv cs.RO 

Modélisation du contact améliorée pour lier extéroception et proprioception dans les robots à croissance progressive

Une équipe de chercheurs présente dans un preprint arXiv (réf. 2507.10694v2) une approche permettant d'utiliser des robots souples "croissants" (soft growing robots) comme outils de cartographie autonome dans des environnements inconnus. Ces robots progressent en longueur depuis leur base sans déplacer leur corps, ce qui leur confère une aptitude naturelle aux espaces confinés et non structurés. Le coeur du travail consiste d'abord à caractériser précisément le comportement de collision lors des virages discrets, puis à construire un simulateur géométrique reproduisant les trajectoires en 2D. Le modèle est ensuite validé en situation réelle : un algorithme d'échantillonnage Monte Carlo sélectionne à chaque étape le prochain déploiement optimal en fonction de la carte déjà construite, sur des environnements aussi bien uniformes que non uniformes. L'apport conceptuel est de convertir la déformation passive, habituellement perçue comme une limitation à compenser, en source d'information tactile exploitable. En couplant extéroception (perception de la géométrie externe) et proprioception (état interne du robot), le système peut inférer la structure de son environnement à partir des seules déformations de contact, sans capteurs actifs de type LiDAR ou caméra. La convergence rapide de la sélection Monte Carlo vers des actions quasi-optimales, même dans des configurations irrégulières, suggère qu'une mécanique délibérément simple peut suffire à conduire une exploration utile. Pour des intégrateurs ciblant l'inspection de conduites, de tunnels ou de zones sinistrées, cette voie sans électronique embarquée complexe présente un intérêt opérationnel réel, même si les démonstrations restent limitées à la simulation 2D. Les soft growing robots ont été largement popularisés par les travaux du groupe Hawkes à l'UC Santa Barbara, dont plusieurs publications ont démontré la pénétration de milieux encombrés et l'évitement d'obstacles par déformation passive. Ce nouveau travail prolonge cet effort vers l'autonomie décisionnelle, jusqu'ici absente faute de modèles de contact fiables. Face aux approches classiques de cartographie (AMR à roues, drones miniatures), le robot souple reste marginal en termes de vitesse et de charge utile, mais occupe un créneau distinct pour les espaces très étroits. Les auteurs n'annoncent pas de timeline de commercialisation ni de partenariat industriel ; les prochaines étapes logiques porteront sur l'extension à des environnements 3D et l'intégration de boucles de contrôle temps réel.

RecherchePaper
1 source
IA incarnée multi-agents : allocation de puissance centrée sur la mémoire pour la réponse aux questions
400arXiv cs.RO 

IA incarnée multi-agents : allocation de puissance centrée sur la mémoire pour la réponse aux questions

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.17810) un travail portant sur la question-réponse incarnée multi-agents (MA-EQA), un paradigme où plusieurs robots coopèrent pour répondre à des requêtes sur ce qu'ils ont collectivement observé sur un horizon temporel long. Le problème central est l'allocation de puissance de transmission entre agents : quand les ressources radio sont limitées, quels robots doivent avoir la priorité pour transmettre leurs souvenirs ? Les auteurs proposent deux contributions : un modèle de qualité de mémoire (QoM) basé sur un examen génératif adversarial (GAE), et un algorithme d'allocation de puissance centré sur la mémoire (MCPA). Le GAE fonctionne par simulation prospective : il génère des questions-tests, évalue la capacité de chaque agent à y répondre correctement à partir de sa mémoire locale, puis convertit les scores obtenus en valeurs QoM. Le MCPA maximise ensuite la fonction QoM globale sous contraintes de ressources de communication. L'analyse asymptotique montre que la puissance allouée à chaque robot est proportionnelle à sa probabilité d'erreur GAE, ce qui revient à prioriser les agents dont la mémoire est la plus riche et la plus fiable. L'intérêt concret pour les architectes de systèmes multi-robots est de déplacer le critère d'optimisation réseau des métriques classiques (débit, latence, taux d'erreur paquet) vers une métrique applicative directement liée à la tâche cognitive. Dans les déploiements d'inspection industrielle, de surveillance ou d'exploration, les robots ne transmettent pas pour transmettre : ils transmettent pour que le système réponde correctement à des requêtes. Traiter la qualité de mémoire comme une ressource à optimiser, au même titre que la bande passante, est une rupture de cadre qui pourrait influencer la conception des protocoles MAC dans les flottes d'agents embarqués. Les expériences montrent des gains significatifs sur plusieurs benchmarks et scénarios, bien que les conditions exactes de déploiement (nombre d'agents, topologie réseau, type de mémoire) ne soient pas détaillées dans le résumé. Ce travail s'inscrit dans la convergence entre vision-langage-action (VLA), robotique incarnée et gestion des ressources sans-fil, un champ en forte expansion depuis 2023 avec les architectures de type RT-2 (Google DeepMind), GR00T (NVIDIA) et les travaux sur les mémoires épisodiques longue durée pour robots mobiles. Sur le plan académique, le GAE adversarial rappelle les techniques d'évaluation automatique utilisées dans les LLM, ici transposées à l'évaluation de mémoire sensorimotrice. Les prochaines étapes logiques seraient une validation sur flotte physique réelle et une intégration avec des architectures mémoire de type VectorDB embarqué. Aucun acteur industriel ni partenaire de déploiement n'est mentionné dans la publication.

RecherchePaper
1 source