Aller au contenu principal
DynoJEPP : estimation conjointe, prédiction et planification en environnements dynamiques
RecherchearXiv cs.RO3h

DynoJEPP : estimation conjointe, prédiction et planification en environnements dynamiques

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

DynoJEPP (Joint Estimation, Prediction and Planning) est un cadre de planification robotique basé sur les graphes de facteurs, publié le 14 mai 2026 sur arXiv (2605.12897), qui optimise simultanément trois modules traditionnellement traités en séquence : l'estimation d'état, la prédiction du comportement des objets environnants, et la planification de trajectoire. Le coeur de la contribution est l'introduction des "facteurs dirigés" (directed factors), un nouveau type de noeud dans le graphe de facteurs imposant un flux d'information strictement unidirectionnel entre les modules. Sans ce mécanisme, les informations issues de la prédiction et de la planification remontent dans l'estimateur d'état, corrompant les estimées et produisant des comportements non désirés. Le framework inclut également une extension baptisée Cooperative DynoJEPP, permettant au robot de modéliser un comportement coopératif des objets mobiles dans sa planification de trajectoire.

L'impact le plus saillant ressort des expériences de validation : sans les facteurs dirigés, le robot entre en collision dans la majorité des tests, en environnement statique comme dynamique. Ce résultat pointe un problème fondamental des architectures JEPP existantes : la co-optimisation conjointe crée des boucles de rétroaction non désirées qui dégradent la sécurité opérationnelle. Le module d'estimation d'état, typiquement le composant de référence dans les systèmes de navigation, se retrouve contaminé par des hypothèses issues de la planification, inversant la causalité naturelle du pipeline. Pour les intégrateurs travaillant sur la navigation autonome en entrepôt ou en espace partagé humain-robot, l'approche suggère que la structure des dépendances entre modules est au moins aussi critique que leur optimisation conjointe.

Les graphes de facteurs sont une technique établie en robotique depuis le milieu des années 2000, popularisée notamment par Frank Dellaert (Georgia Tech) via la librairie GTSAM pour le SLAM. Les approches JEPP suscitent un intérêt croissant face à la montée des robots en espaces dynamiques (entrepôts, routes mixtes, cobotique). Les concurrents directs incluent les planificateurs MPC à modules séparés, les architectures différentiables de type Wayve ou DreamerV3, et les VLA (Vision-Language-Action) qui intègrent progressivement la modélisation des agents environnants. La contribution de DynoJEPP reste au stade de la recherche académique (preprint sans revue par les pairs), sans déploiement ni pilote industriel annoncé.

Dans nos dossiers

À lire aussi

PRISM : planification et raisonnement intentionnel dans des environnements simulés à IA incarnée
1arXiv cs.RO 

PRISM : planification et raisonnement intentionnel dans des environnements simulés à IA incarnée

Des chercheurs ont publié PRISM (Planning and Reasoning with Intent in Simulated Embodied Environments) sur arXiv en mai 2026, un benchmark de diagnostic pour agents incarnés basés sur des LLM. Là où les benchmarks actuels se limitent à un taux de succès global, PRISM identifie quel module cognitif est responsable d'un échec. Le dispositif repose sur cinq appartements multi-pièces photoréalistes (4 à 8 pièces chacun) et 300 tâches validées par des humains, organisées en trois niveaux de capacité : Basic Ability (ancrage perception-action), Reasoning Ability (résolution d'intentions implicites) et Long-horizon Ability (coordination multi-étapes soutenue). L'API d'évaluation est agnostique au type d'agent, couvrant LLM, VLM, planificateurs symboliques, politiques RL et systèmes hybrides dans le même protocole. Des expériences sur sept LLM contemporains montrent que les modèles légers s'effondrent à 20 % de succès sur les tâches long-horizon tout en consommant davantage de tokens que les modèles frontier, un phénomène que les auteurs nomment sur-raisonnement compensatoire. Ce résultat contredit une hypothèse dominante dans l'IA incarnée : en conditions de perception oracle (sans erreur de détection), l'ancrage spatial n'est pas le principal facteur limitant. C'est la résolution d'intentions implicites qui constitue le goulot d'étranglement commun à toutes les familles de modèles testées, y compris les plus puissantes. Pour les intégrateurs et décideurs B2B, la découverte du sur-raisonnement compensatoire est un signal d'alerte concret : un modèle léger déployé en edge peut afficher une activité de raisonnement apparente (volume de tokens élevé) tout en échouant massivement sur des tâches complexes. PRISM offre ainsi un protocole de qualification plus fin que le simple taux de complétion, permettant de cibler les investissements entre perception, mémoire et planification. PRISM s'inscrit dans un mouvement de benchmarking plus rigoureux des agents incarnés, aux côtés de référentiels comme ALFRED ou ScienceWorld qui agrègent les résultats sans en décomposer les causes. La publication intervient alors que DeepMind, Google, Meta et des startups comme Physical Intelligence (auteure de pi0) investissent massivement dans les architectures VLA (Vision-Language-Action) pour la robotique domestique et industrielle. L'API publique et agnostique à l'agent est conçue pour une adoption communautaire large. Il s'agit cependant d'un preprint académique : aucun pilote industriel ni timeline de déploiement ne sont annoncés à ce stade.

RecherchePaper
1 source
Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque
2arXiv cs.RO 

Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque

Des chercheurs ont publié début mai 2026, via un preprint arXiv (2605.02862), un planificateur de navigation robotique baptisé SRAH (Semantic Risk-Aware Heuristic), conçu pour intégrer des principes de raisonnement issus des grands modèles de langage (LLM) dans le cadre classique de recherche de chemin A. L'algorithme encode des fonctions de coût sémantiques qui pénalisent les zones géométriquement encombrées ou identifiées comme à risque élevé, et déclenche un replanification en boucle fermée dès qu'un obstacle dynamique est détecté. Les auteurs l'ont évalué sur 200 essais randomisés dans un environnement grille 15x15 cases, avec 20% de densité d'obstacles statiques et des obstacles dynamiques stochastiques. SRAH atteint un taux de succès de 62,0%, contre 56,5% pour BFS avec replanification (soit +9,7% d'amélioration relative) et 4,0% pour une heuristique Greedy sans replanification. Une étude d'ablation sur la densité d'obstacles confirme que le façonnage sémantique des coûts améliore la navigation sur des environnements de difficulté variable. Ce travail s'inscrit dans un courant de recherche qui cherche à exploiter la capacité des LLM à encoder du raisonnement contextuel sans les déployer en inférence temps réel, ce qui réduirait la latence et les coûts de calcul embarqués. L'idée centrale, injecter une représentation sémantique du risque dans la fonction heuristique d'A, est pertinente pour les développeurs d'AMR (robots mobiles autonomes) industriels confrontés à des environnements semi-structurés changeants. Cela dit, les résultats doivent être nuancés : un taux de succès de 62% dans une grille 15x15 reste modeste pour une tâche de navigation, et la comparaison avec un Greedy sans replanification est méthodologiquement inégale. La valeur démontrée reste celle de principe, pas de déploiement à l'échelle. La navigation en environnement dynamique est un problème central depuis les travaux fondateurs sur A (Hart, Nilsson, Raphael, 1968) et les variantes D et D*-Lite des années 1990-2000. L'émergence des LLM a relancé l'intérêt pour des heuristiques fondées sur la sémantique plutôt que sur la pure géométrie, une piste explorée par des équipes comme celles de Stanford (SayCan, 2022) ou de Google DeepMind avec RT-2. Sur le segment de la navigation mobile, des acteurs comme Boston Dynamics, MiR ou Exotec (France) intègrent déjà des couches de replanification dynamique dans leurs flottes d'AMR industriels. Ce preprint n'annonce pas de produit ni de déploiement : c'est une contribution algorithmique à valider sur des benchmarks plus réalistes (ROS 2, Gazebo, environnements 3D) avant tout transfert industriel.

UECe preprint pourrait à terme informer les développeurs d'AMR industriels européens sur les heuristiques sémantiques LLM, mais les résultats restent trop préliminaires et le benchmark trop limité (grille 15x15) pour un transfert industriel immédiat.

RecherchePaper
1 source
Saisie mobile avec conscience de la visibilité en environnements dynamiques
3arXiv cs.RO 

Saisie mobile avec conscience de la visibilité en environnements dynamiques

Des chercheurs ont publié sur arXiv (arXiv:2605.02487) un système de préhension mobile baptisé « visibility-aware mobile grasping », conçu pour des robots à manipulateur opérant dans des environnements inconnus et dynamiques. L'architecture repose sur deux composants couplés : un planificateur bas niveau en corps entier (whole-body planner) associé à une perception active sensible à la vitesse, et un planificateur haut niveau hiérarchique fondé sur des arbres de comportement (behavior trees) qui génère des sous-objectifs adaptatifs. Les expériences ont été conduites sur 400 scénarios de simulation randomisés ainsi qu'en déploiement réel sur un robot mobile manipulateur Fetch. Le système atteint un taux de succès de 68,8 % dans des environnements statiques inconnus et de 58,0 % dans des environnements dynamiques, soit respectivement +22,8 et +18,0 points de pourcentage par rapport à l'approche de référence NAM (Non-prehensile Assisted Manipulation), avec une réduction mesurée des collisions. Le problème central que ce travail cherche à résoudre est un compromis fondamental en robotique mobile : un robot disposant d'un champ de vision limité doit arbitrer en permanence entre explorer pour réduire l'incertitude environnementale et progresser vers sa cible de saisie dans un espace de configuration à haute dimensionnalité. Les approches précédentes découpaient ces deux objectifs, ce qui rendait impossible la garantie de sécurité lorsque des obstacles dynamiques non observés intersectaient la trajectoire pendant la manipulation. En couplant la perception active à la planification de mouvement, et non en les traitant en séquence, les auteurs montrent qu'il est possible de maintenir une garantie de sécurité sans sacrifier les performances de saisie, un résultat pertinent pour les intégrateurs de systèmes pick-and-place en environnement non contrôlé. Ce travail s'inscrit dans un courant de recherche en pleine accélération autour des robots mobiles manipulateurs capables d'opérer hors de cellules balisées. Le Fetch, plateforme de recherche standard de Fetch Robotics (racheté par Zebra Technologies), est un choix délibérément accessible pour la reproductibilité. Les concurrents directs sur ce segment incluent les travaux de Mobile ALOHA (Stanford), de Spot Arm (Boston Dynamics) et de Hello Robot Stretch, ainsi que les systèmes AMR-à-bras d'Universal Robots et de Kassow Robots en Europe. La prochaine étape naturelle identifiée implicitement par les auteurs est l'extension à des scénarios avec plusieurs objets dynamiques simultanés et des environnements encore moins structurés, un écart entre performances en simulation et déploiement réel qui reste à confirmer sur des cycles industriels prolongés.

RecherchePaper
1 source
COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques
4arXiv cs.RO 

COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques

Des chercheurs ont publié sur arXiv (référence 2510.03875v2) un framework baptisé COVER (Coverage-VErified Roadmaps), conçu pour résoudre des requêtes de planification de mouvement dans un budget temps fixe, sur un manipulateur 7-DOF effectuant des tâches de pick-and-place dans des environnements de type table rase et étagères. Le principe repose sur des environnements dits semi-statiques : la majorité de l'espace de travail reste identique entre les tâches, tandis qu'un sous-ensemble d'obstacles change de position. COVER décompose l'espace des configurations possibles de chaque obstacle mobile de façon indépendante, construit des roadmaps (graphes de chemins) de façon incrémentale, et vérifie formellement la faisabilité de ces graphes dans chaque partition. Pour les régions vérifiées, la résolution d'une requête est garantie dans un temps borné. Les benchmarks montrent une couverture de l'espace-problème plus large et un taux de succès par requête supérieur aux approches antérieures, notamment face à des obstacles de tailles hétérogènes. L'enjeu industriel est direct : les planificateurs généralistes comme RRT ou ses variantes ne garantissent pas de temps de réponse borné, ce qui bloque leur usage dans les applications temps-réel (lignes d'assemblage, cellules de palettisation, cobots en cadence synchronisée). COVER apporte une garantie formelle de couverture, absente des travaux précédents, sans discrétiser les configurations d'obstacles en un ensemble fini prédéfini. C'est ce dernier point qui étend l'applicabilité aux scénarios industriels réels, où les positions d'obstacles varient continûment et ne tombent pas dans des cases prédéterminées. Pour un intégrateur, la différence est concrète : un planificateur qui "essaie" n'a pas la même valeur contractuelle qu'un planificateur qui "garantit" dans X millisecondes. La planification de mouvement certifiée dans des environnements changeants est un problème ouvert depuis des années, à la frontière entre la robotique manipulation et la vérification formelle. Les approches par probabilistic roadmaps (PRM) offrent performance mais pas de garanties ; les méthodes exactes sont trop coûteuses en temps de calcul pour être embarquées. COVER se positionne entre ces deux extrêmes en exploitant la structure semi-statique propre à la majorité des environnements industriels. Les concurrents implicites sont les planificateurs adaptatifs comme STOMP, TrajOpt, ou les approches d'apprentissage par imitation (pi-zero de Physical Intelligence, GR00T N2 de NVIDIA), qui résolvent la planification par inférence neuronale mais sans garantie formelle de complétude. La prochaine étape naturelle serait d'étendre COVER à des environnements avec obstacles dynamiques ou à des manipulateurs montés sur bases mobiles, ce que l'article ne couvre pas encore.

RecherchePaper
1 source