Aller au contenu principal
RecherchearXiv cs.RO1h

Rainbow Deep Q-Learning intégrant la cinématique pour l'insertion coopérative de robots parallèles Delta et 3-RRS

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Des chercheurs présentent dans un preprint arXiv (arXiv:2605.11697) un cadre combinant un robot parallèle Delta et un manipulateur 3-RRS (liaisons Rotoïde-Rotoïde-Sphérique) pour réaliser coopérativement une tâche d'insertion cheville-dans-trou (peg-in-hole), étalon classique de l'assemblage de précision. L'espace contrôlable couvre 6 degrés de liberté : trois translations assurées par le Delta, deux rotations et une translation verticale par le 3-RRS, pour un espace de tâche effectivement pentadimensionnel (l'insertion étant invariante à la rotation axiale). Le problème est formulé comme un processus de décision markovien à vecteur d'état de dimension 12 et 12 actions discrètes. L'algorithme retenu est un Rainbow DQN -- intégrant double Q-learning, architecture duale, rejeu à priorité, retours multi-étapes, couches linéaires bruitées et tête de valeur distributionnelle -- entraîné selon un curriculum en deux phases. Les résultats, obtenus exclusivement en simulateur cinématique haute-fidélité, montrent une convergence stable et des insertions fiables, surpassant un DQN classique et un planificateur par échantillonnage.

La contribution centrale n'est pas algorithmique mais architecturale : une étape d'optimisation géométrique précède tout entraînement et ajuste la cinématique du 3-RRS pour maximiser l'espace de travail sans singularité et améliorer le conditionnement de la chaîne. Ce co-design élargit la région sûre d'exploration de la politique RL, réduit les violations de contraintes cinématiques et accélère la convergence. Ce principe -- optimiser la géométrie mécanique avant l'apprentissage plutôt que déléguer cette contrainte à la fonction de récompense -- est directement applicable aux intégrateurs travaillant avec des manipulateurs à espace de travail contraint ou à singularités critiques.

Les robots parallèles Delta, introduits par Reymond Clavel en 1985 et largement déployés en pick-and-place agroalimentaire et pharmaceutique, sont réputés pour leur rigidité mais pénalisés par un espace de travail réduit. Les architectures 3-RRS partagent ces caractéristiques. Le Rainbow DQN, proposé par DeepMind en 2017, agrège six améliorations du DQN original de 2015 ; son application aux architectures parallèles coopératives reste peu documentée dans la littérature. Ce travail demeure une contribution de recherche en simulation : le franchissement du fossé sim-to-réel n'est pas traité, aucun déploiement sur hardware physique n'est annoncé, et les auteurs n'indiquent pas d'affiliation industrielle.

Dans nos dossiers

À lire aussi

Prise de décision hiérarchique intégrée pour la planification et le contrôle en cinématique inverse
1arXiv cs.RO 

Prise de décision hiérarchique intégrée pour la planification et le contrôle en cinématique inverse

Une équipe de chercheurs présente sur arXiv (2412.01324, v4) un solveur de programmation non linéaire hiérarchique et épars qui intègre simultanément prise de décision discrète et cinématique inverse (IK) corps entier. En un seul problème d'optimisation, le système résout des questions jusqu'ici traitées séparément : sélectionner le nombre minimal d'articulations à activer (contrôle IK épars), choisir parmi un large ensemble de positions candidates où poser un effecteur terminal, ou coordonner deux bras pour saisir un objet orienté aléatoirement. Le solveur s'appuie sur la norme ℓ₀, qui pénalise directement le nombre de variables non nulles, là où la littérature recourt habituellement à la norme ℓ₁, une approximation convexe plus facile à manipuler mais moins fidèle au problème réel. L'enjeu est la réduction du fossé entre planification et exécution dans les robots manipulateurs complexes. Les méthodes actuelles font appel à la programmation entière mixte non linéaire (MINLP), dont le coût de calcul est prohibitif en temps réel, ou à des heuristiques de faisabilité (cartes d'atteignabilité, workspace envelopes) qui simplifient le problème au détriment de la précision. Ce cadre traite le problème non linéaire directement, sans relaxation, en exploitant sa structure hiérarchique éparse. Pour un intégrateur travaillant sur des bras bi-manuels ou des plateformes humanoïdes, cela représente une piste concrète pour réduire la dépendance aux bibliothèques de mouvements pré-calculés et aux pipelines de sélection de prises hors ligne. Ce travail s'inscrit dans la lignée de la programmation quadratique hiérarchique (HQP), paradigme établi en commande de robots redondants depuis les travaux de Sentis et Khatib dans les années 2000. L'usage de la norme ℓ₀ dans des problèmes continus non convexes reste rare en robotique, ce qui constitue la principale originalité revendiquée. L'article ne présente toutefois pas de validation sur plateforme matérielle réelle, ni de benchmarks comparatifs en temps de calcul face à des solveurs de référence comme Drake (Toyota Research Institute) ou les pipelines MoveIt/TRAC-IK, une limite méthodologique à noter avant d'envisager un déploiement. Les suites naturelles seraient une intégration sur humanoïde et une comparaison avec les approches d'apprentissage par renforcement pour la sélection de prises.

RecherchePaper
1 source
Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning
2arXiv cs.RO 

Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning

Une équipe de chercheurs propose, dans un article de positionnement déposé sur arXiv en mai 2025 (arXiv:2605.02538), une architecture multi-modèles pour traiter le toucher social affectif en robotique. Le problème ciblé est précis : si la préhension et la dextérité robotiques ont significativement progressé grâce au retour haptique, les gestes affectifs - poignées de main, caresses rassurantes, contacts sociaux codifiés - restent non résolus en interaction humain-robot (HRI). Les auteurs proposent de décomposer le toucher affectif en sous-tâches spécialisées, chacune traitée par un modèle dédié, dans une architecture distribuée en boucle fermée inspirée de la neurobiologie. Ce cadre repose sur un protocole de partage d'état pair-à-pair et s'intègre dans un pipeline Sim-to-Real pour faciliter le transfert de l'entraînement en simulation vers les plateformes physiques. Il s'agit à ce stade d'un cadre conceptuel sans validation expérimentale publiée. Le verrou adressé est réel : un robot capable de saisir un objet de cinq kilos avec précision peut échouer à simuler une poignée de main naturelle. Les auteurs introduisent la notion de "vallée de l'étrange haptique" (haptic uncanny valley), par analogie avec son équivalent visuel - un toucher robotique "presque juste" génère un inconfort plus marqué qu'un contact clairement artificiel. L'approche multi-modèles distribuée, à l'opposé d'un mouvement moteur monolithique, permettrait un développement cumulatif et modulaire : les équipes spécialisées en haptique, en IA et en robotique peuvent contribuer indépendamment. Pour les intégrateurs de robots sociaux dans les secteurs médical, thérapeutique ou d'assistance à la personne, cela ouvre une voie vers des interactions physiques acceptables et objectivement mesurables. La robotique sociale s'est longtemps concentrée sur l'expressivité faciale et vocale - Pepper de SoftBank Robotics, Paro de l'AIST japonais - en laissant le toucher en marge. Les travaux sur le retour haptique dans la manipulation (MIT, Stanford) ont ouvert la voie, mais sans cibler spécifiquement la dimension affective. Les acteurs industriels aujourd'hui dominants - Figure AI avec Figure 02, Boston Dynamics, 1X Technologies - concentrent leurs efforts sur la locomotion et la manipulation de charges, pas sur la qualité sociale du contact physique. Ce papier de positionnement structure un agenda de recherche interdisciplinaire dont les prochaines étapes attendues seront l'implémentation et l'évaluation sur des robots compagnons ou d'assistance, segments où des acteurs européens comme Enchanted Tools (France) et des projets d'assistance à la dépendance commencent à émerger.

UELa proposition d'un cadre modulaire pour le toucher affectif représente une piste de R&D pertinente pour des acteurs français comme Enchanted Tools, actifs sur les robots d'assistance et de compagnie.

RecherchePaper
1 source
ReconVLA : un cadre VLA guidé par l'incertitude et la détection des défaillances pour le contrôle robotique
3arXiv cs.RO 

ReconVLA : un cadre VLA guidé par l'incertitude et la détection des défaillances pour le contrôle robotique

Des chercheurs ont mis en ligne en avril 2026 sur arXiv (référence 2604.16677) un framework nommé ReconVLA, conçu pour doter les modèles vision-langage-action (VLA) d'une capacité jusque-là absente : estimer leur propre degré de confiance avant d'agir. ReconVLA applique la prédiction conforme (conformal prediction) directement sur les tokens d'action produits par un VLA pré-entraîné, sans modification ni réentraînement du modèle. Cette couche génère des intervalles d'incertitude calibrés, corrélés à la qualité d'exécution et au taux de succès de la tâche. Le même mécanisme est étendu à l'espace d'état du robot pour détecter des configurations anormales avant qu'une défaillance ne survienne. L'évaluation couvre des tâches de manipulation variées en simulation et sur robot réel. L'absence de mesure de confiance calibrée est aujourd'hui l'un des principaux verrous à l'industrialisation des VLA. Un modèle comme Pi-0 (Physical Intelligence), OpenVLA ou GR00T N2 (NVIDIA) peut produire une action avec une assurance apparente même lorsque la scène perçue sort de sa distribution d'entraînement. ReconVLA contourne ce problème sans toucher au modèle sous-jacent : les intégrateurs peuvent envelopper n'importe quel VLA existant avec cette surcouche de sécurité. En pratique, le framework réduit les erreurs catastrophiques et fournit un signal exploitable par les superviseurs humains ou les systèmes de fail-safe industriels. Il convient de souligner que les résultats présentés restent à l'échelle laboratoire, sans validation sur des lignes de production réelles. La prédiction conforme est une méthode statistique bien établie dans la communauté du machine learning certifié, mais son application aux VLA robotiques reste émergente. Ces architectures ont connu une accélération notable depuis 2023 avec RT-2 (Google DeepMind), puis OpenVLA, Pi-0 et GR00T N2, chacune promettant un contrôle généraliste sans garantie formelle de comportement hors distribution. ReconVLA s'inscrit dans une tendance visant à rendre ces modèles auditables et déployables dans des contextes à risque industriel ou réglementé. Les prochaines étapes naturelles incluent l'intégration avec des pipelines temps réel et la validation sur des horizons de tâches plus longs, domaines où la calibration de l'incertitude devient critique pour les décideurs industriels.

UEImpact indirect : si validé à l'échelle industrielle, ce framework faciliterait le déploiement de VLA dans des environnements réglementés européens (AI Act, sécurité machines), sans nécessiter de réentraînement des modèles existants.

RechercheOpinion
1 source
EA-WM : un modèle du monde génératif intégrant des champs d'action cinématique-visuel structurés
4arXiv cs.RO 

EA-WM : un modèle du monde génératif intégrant des champs d'action cinématique-visuel structurés

Des chercheurs ont déposé le 8 mai 2026 sur arXiv (2605.06192) un préprint présentant EA-WM (Event-Aware Generative World Model), un modèle de monde génératif pour la robotique fondé sur les modèles de diffusion vidéo préentraînés. L'originalité technique centrale réside dans l'introduction de "Structured Kinematic-to-Visual Action Fields" : plutôt que d'injecter les états articulaires ou les positions d'effecteur terminal sous forme de tokens abstraits de faible dimension, le modèle projette directement les actions et états cinématiques dans l'espace de la caméra cible, produisant une représentation géométriquement ancrée. Les auteurs introduisent également des blocs de fusion bidirectionnelle sensibles aux événements ("event-aware bidirectional fusion blocks"), qui modulent l'attention croisée entre branches et capturent les changements d'état des objets ainsi que la dynamique fine des interactions robot-objet. Évalué sur le benchmark WorldArena, EA-WM dépasse les baselines existantes par une marge que les auteurs qualifient de significative, sans préciser les écarts numériques dans l'abstract. L'enjeu est celui du "problème inverse" dans les world models robotiques : la plupart des approches actuelles traitent la génération vidéo comme une représentation auxiliaire au service de l'apprentissage de politiques, sans exploiter les signaux d'action pour guider la synthèse visuelle. EA-WM retourne cette perspective et produit des rollouts simulés qui préservent mieux la géométrie spatiale du robot et la dynamique des interactions, un défaut récurrent des world models qui génèrent des séquences visuellement plausibles mais cinématiquement incohérentes. Pour les équipes travaillant sur le sim-to-real, une meilleure fidélité géométrique dans les rollouts peut directement améliorer la qualité des politiques apprises sans données réelles supplémentaires, ce qui est l'un des arguments centraux de ce type d'approche. Les modèles de diffusion vidéo utilisés comme fondation pour les world models robotiques font l'objet d'une activité de recherche intense depuis 2024, avec des travaux comparables comme UniSim, IRASim ou Genie 2 de DeepMind. EA-WM se distingue par son traitement explicite de la géométrie cinématique projetée dans la vue caméra, là où la plupart des approches restent dans des espaces latents abstraits. Il s'agit strictement d'un article académique en préprint : aucun code public n'est mentionné, aucun partenariat industriel ni déploiement n'est annoncé. Les étapes suivantes attendues sont la validation sur des benchmarks de manipulation réels et l'intégration dans des pipelines de policy learning fondés sur des modèles VLA (Vision-Language-Action).

RechercheActu
1 source