Aller au contenu principal
Forces d'interaction et charges internes dans les manipulateurs parallèles à actionnement redondant
RecherchearXiv cs.RO2h

Forces d'interaction et charges internes dans les manipulateurs parallèles à actionnement redondant

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Un article soumis sur arXiv (arXiv:2604.27095, mai 2026) s'attaque à un problème fondamental des manipulateurs parallèles à redondance d'actionnement : la caractérisation et le calcul des composantes de torseur dans l'espace nul. Les auteurs examinent les deux formalismes les plus répandus dans la littérature sur les systèmes de préhension, à savoir les forces d'interaction et les charges internes, et analysent leur transposition aux architectures parallèles redondantes. Le papier identifie des erreurs et des ambiguïtés dans les publications existantes, propose des méthodes explicites pour synthétiser des vecteurs de couples articulaires équilibrants et manipulateurs, et présente une étude de cas analytique pour valider l'approche tout en corrigeant des résultats erronés déjà publiés.

La redondance d'actionnement dans les manipulateurs parallèles est un levier clé pour améliorer la rigidité, la dextérité et la gestion des singularités, mais elle introduit une infinité de distributions de couples articulaires possibles pour un même torseur externe appliqué. Sans cadre théorique rigoureux, les forces internes peuvent provoquer une dégradation mécanique prématurée des articulations ou conduire à des estimations incorrectes des marges de performance. Corriger les fondations conceptuelles de ce domaine est donc directement pertinent pour les concepteurs de robots à câbles, les plateformes delta redondantes et les simulateurs haptiques.

La distinction entre forces d'interaction et charges internes est héritée des travaux classiques sur la préhension multi-doigts des années 1980-1990 (Salisbury, Murray), mais son extension aux manipulateurs parallèles a généré des incohérences dans la littérature depuis plus de deux décennies, avec des formulations divergentes produites par des groupes en Europe, en Asie et en Amérique du Nord. Ce papier reste à l'état de preprint et sa validation repose uniquement sur une étude de cas analytique, sans données expérimentales sur banc physique. Des travaux sur des architectures concrètes de type Gough-Stewart ou robots à câbles constitueraient la suite naturelle pour ancrer ces corrections dans la pratique industrielle.

Dans nos dossiers

À lire aussi

Contrôle d'admittance sensible aux torseurs pour la manipulation de charges utiles inconnues
1arXiv cs.RO 

Contrôle d'admittance sensible aux torseurs pour la manipulation de charges utiles inconnues

En avril 2026, des chercheurs ont présenté sur arXiv (réf. 2604.19469) un framework de contrôle en admittance pour la manipulation robotique d'objets à masse inconnue, validé expérimentalement sur un bras UR5e de Universal Robots. Lorsque le centre de masse d'un objet saisi ne coïncide pas avec le point central outil (TCP), la charge génère un couple parasite au poignet, amplifié par l'inertie de l'objet pendant le déplacement. Sans compensation, ce couple est interprété par le contrôleur comme une force d'interaction extérieure, déclenchant des déviations de trajectoire, des erreurs de suivi et une précision de dépose dégradée. La solution exploite le capteur force-couple du poignet selon deux modes séquentiels : une excitation translationnelle sur trois axes atténue l'effet de la charge en transit sans raidir le robot, puis, après la saisie, le contrôleur estime successivement la masse de l'objet et l'offset de son centre de masse par rapport au TCP en analysant les mesures collectées lors du mouvement. Pour les intégrateurs industriels, ce travail cible un problème récurrent : adapter un cobot à des lignes à références multiples sans recalibration manuelle à chaque changement de produit. Les contrôleurs en admittance sont le standard de fait pour les applications collaboratives (ISO/TS 15066), mais leur sensibilité aux perturbations non modélisées au niveau du capteur de couple les rend fragiles sur des tâches d'empilage ou de palettisation à charges variables. La méthode démontre qu'il est possible de préserver la compliance mécanique, garante de la cohabitation humain-robot, tout en corrigeant activement les biais de charge, sans recours à l'apprentissage par renforcement. Les résultats expérimentaux indiquent des gains en transport et en précision de dépose par rapport à la commande non corrigée, bien que l'abstract ne fournisse pas de métriques quantitatives détaillées permettant d'évaluer l'ampleur réelle des améliorations. Le contrôle en admittance, formalisé par Neville Hogan au MIT dans les années 1980, est aujourd'hui intégré nativement dans les plateformes Universal Robots et Franka Robotics. Ce travail s'inscrit dans un courant concurrent des approches VLA (vision-language-action) portées par Physical Intelligence (pi-0) ou Google DeepMind, qui misent sur l'apprentissage massif plutôt que sur la modélisation analytique de la physique. L'avantage différenciant de cette approche est sa traçabilité pour la certification industrielle et l'absence totale de données d'entraînement. Les extensions naturelles incluent la prise en compte des couples en rotation et la validation sur des architectures multi-bras pour la manipulation coordonnée d'objets asymétriques.

UECette méthode de contrôle en admittance robuste aux charges inconnues est directement applicable aux cobots UR5e (Universal Robots, Danemark) et Franka (Allemagne) largement déployés dans l'industrie européenne, facilitant la conformité ISO/TS 15066 sur les lignes à références multiples sans recalibration manuelle.

RecherchePaper
1 source
Actionnement par multiplexage temporel dans les bras à tendons : conception légère et tolérance aux pannes
2arXiv cs.RO 

Actionnement par multiplexage temporel dans les bras à tendons : conception légère et tolérance aux pannes

Des chercheurs ont publié sur arXiv (référence 2504.16887) une architecture d'actionnement inédite pour bras robotiques à tendons, baptisée Time-Division Multiplexing Actuation (TDMA). Le principe emprunte au multiplexage temporel des télécommunications : plutôt que d'allouer un actionneur par degré de liberté, un seul groupe de moteurs commute séquentiellement entre les tendons via des embrayages électromagnétiques à engagement rapide, inférieurs à 0,1 seconde. Le prototype résultant, appelé MuxArm, affiche une masse propre de 2,17 kg pour une capacité de charge utile de 10 kg, soit un ratio payload/poids de structure supérieur à 4,6. La précision en bout d'effecteur est maintenue à 1 % de la longueur du bras, y compris en cas de défaillance partielle d'un servomoteur. Un réducteur à vis sans fin assure le maintien de charge en coupure d'alimentation (self-locking), et un double encodeur garantit la précision de positionnement sur le long terme. Des tests ont été conduits en espace libre, en environnement encombré et en espace confiné. Le TDMA s'attaque à un arbitrage fondamental des bras légers à tendons : réduire la masse embarquée oblige généralement à réduire le nombre d'actionneurs, ce qui compromet redondance et tolérance aux pannes. Ici, la mutualisation temporelle des moteurs permet de conserver un couple élevé tout en réduisant la charge sur les tendons jusqu'à 50 % par rapport aux méthodes conventionnelles, grâce à un algorithme de planification trajectoire en espace d'actionnement. Pour les intégrateurs industriels et les agences spatiales, c'est un argument sérieux : un bras pouvant continuer à opérer après une panne de servo partielle, sans masse supplémentaire, répond directement aux contraintes des environnements inaccessibles (orbite, inspection sous-marine, démantèlement nucléaire). Il reste à qualifier cette tolérance aux pannes sur des cycles longs et sous vibrations réelles, deux paramètres absents du papier. Le TDMA s'inscrit dans un courant de recherche sur les architectures d'actionnement à faible redondance physique, en complément des travaux sur les muscles artificiels pneumatiques (soft robotics) et les transmissions à câble tendus à moteurs déportés, popularisés par des bras comme le Kinova Gen3 ou les manipulateurs de l'ESA. La tendance de fond est de repousser la masse vers le bâti plutôt que vers les segments distaux, comme le fait aussi le projet Wandercraft sur ses exosquelettes. Ce travail, issu d'un laboratoire dont l'affiliation institutionnelle n'est pas précisée dans le préprint, n'est pour l'instant qu'une démonstration expérimentale : aucun partenaire industriel ni calendrier de transfert technologique n'est mentionné.

RecherchePaper
1 source
Démasquer l'illusion du raisonnement incarné dans les modèles vision-langage-action (VLA)
3arXiv cs.RO 

Démasquer l'illusion du raisonnement incarné dans les modèles vision-langage-action (VLA)

Des chercheurs ont publié le 22 avril 2026 un article sur arXiv (référence 2604.18000) introduisant BeTTER, un benchmark de diagnostic conçu pour tester le raisonnement incarné réel dans les modèles de type Vision-Language-Action (VLA). L'objectif : vérifier si les taux de succès élevés affichés par des modèles comme pi-0, OpenVLA ou RoboVLMs sur les benchmarks standards reflètent une véritable intelligence physique, ou un artefact d'évaluation. BeTTER applique des interventions causales ciblées, modifications de la disposition spatiale, extrapolation temporelle, tout en isolant cinématiquement les échecs de raisonnement de haut niveau des limites d'exécution motrice de bas niveau. Résultat : les VLA de pointe s'effondrent dans des scénarios dynamiques, exhibant des raccourcis lexico-cinématiques (le modèle associe des mots à des patterns moteurs sans vraiment "comprendre"), une inertie comportementale, et un effondrement de la représentation sémantique. Ces résultats remettent en cause l'un des postulats les plus optimistes du secteur : que les hauts scores sur benchmarks constituent une preuve de généralisation. L'analyse mécaniste des auteurs identifie deux goulots d'étranglement architecturaux structurels, la compression de capacité et le sous-échantillonnage myope, qui dégradent systématiquement la représentation sémantique fondamentale du modèle. En d'autres termes, les architectures VLA actuelles sont structurellement contraintes à sacrifier le raisonnement de haut niveau pour maintenir la fréquence de contrôle nécessaire à l'exécution motrice en temps réel. Les protocoles d'évaluation trop statiques masquent cette dégradation en permettant au modèle d'overfitter aux priors sensorimoteurs du dataset, ce qui est un signal d'alarme direct pour les intégrateurs industriels qui évaluent ces systèmes avant déploiement. La famille VLA a connu une accélération marquée depuis fin 2023, avec les travaux de Physical Intelligence (pi-0), Google DeepMind (RT-2, puis Helix en collaboration avec Figure AI), et des efforts académiques nombreux autour de modèles open-source comme OpenVLA. Le gap benchmark-réalité est un problème récurrent en robotique, le sim-to-real transfer en est la version la plus connue, mais BeTTER le documente cette fois au niveau du raisonnement cognitif plutôt que de la dynamique physique. Les auteurs valident leurs conclusions sur robot réel, ce qui exclut l'hypothèse d'un artefact de simulation. La prochaine étape logique pour le secteur est de repenser les architectures VLA pour résoudre la tension structurelle entre contrôle haute fréquence et raisonnement sémantique robuste, probablement via des approches hiérarchiques déjà explorées par des équipes comme Wandercraft côté locomotion, ou Enchanted Tools pour la manipulation expressive.

UEWandercraft et Enchanted Tools, acteurs français actifs sur la locomotion et la manipulation expressive, sont directement concernés par les goulots d'étranglement architecturaux identifiés par BeTTER, qui constitue un signal d'alarme pour tout intégrateur européen évaluant des systèmes VLA avant déploiement industriel.

RechercheOpinion
1 source
Compréhension neuro-symbolique de la manipulation par chaînes d'événements sémantiques enrichies
4arXiv cs.RO 

Compréhension neuro-symbolique de la manipulation par chaînes d'événements sémantiques enrichies

Des chercheurs présentent eSEC-LAM, un cadre neuro-symbolique conçu pour permettre aux robots opérant dans des environnements humains de comprendre les manipulations d'objets en temps réel. Publié sur arXiv (2604.21053), ce travail s'appuie sur les enriched Semantic Event Chains (eSECs), une représentation symbolique relationnelle qui décrit comment les relations spatiales entre objets évoluent au fil d'une séquence de manipulation. eSEC-LAM augmente ces chaînes classiques avec cinq couches d'information supplémentaires : des prédicats pondérés par un score de confiance, des rôles fonctionnels d'objets (outil, patient, récipient), des priors d'affordance, une abstraction en primitives de mouvement, et des indicateurs de saillance pour l'explicabilité. Le système est évalué sur trois benchmarks vidéo reconnus : EPIC-KITCHENS-100, EPIC-KITCHENS VISOR, et Assembly101, couvrant la reconnaissance d'actions, la prédiction de la prochaine primitive, la robustesse au bruit perceptuel et la cohérence des explications. L'intérêt industriel réside dans la prédiction de la prochaine étape de manipulation, un verrou critique pour les robots collaboratifs et les systèmes d'assistance à l'assemblage. Les résultats montrent qu'eSEC-LAM améliore substantiellement cette capacité par rapport aux baselines symboliques classiques et aux modèles vidéo bout-en-bout, tout en restant plus robuste lorsque la perception est dégradée, un scénario fréquent en usine ou à domicile. L'architecture hybride évite la boîte noire des approches purement neuronales : chaque décision est ancrée dans des preuves relationnelles explicites, ce qui facilite l'audit et la certification, deux exigences croissantes pour les intégrateurs industriels soumis aux normes de sécurité fonctionnelle (ISO 10218, EN 13849). Ce n'est pas un modèle VLA qui apprend tout end-to-end depuis des vidéos brutes : c'est délibérément un système de raisonnement léger, conçu pour tourner sans GPU dédié au moment de l'inférence symbolique. Les eSECs ont émergé dans les laboratoires de robotique cognitive au début des années 2010 comme alternative interprétable aux réseaux de neurones pour la compréhension de gestes, mais ils restaient jusqu'ici principalement descriptifs. eSEC-LAM est une tentative de les transformer en états internes actifs pour un raisonnement décisionnel. Dans le paysage concurrent, les approches VLA comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA) misent sur l'apprentissage massif généraliste ; eSEC-LAM propose une voie opposée, plus modulaire et explicable, potentiellement plus adaptée aux certifications réglementaires ou aux domaines à données rares. Les prochaines étapes logiques seraient une validation sur robot réel en boucle fermée et une intégration avec des couches de planification symbolique (PDDL, HTN), pour aller au-delà de la reconnaissance vers l'exécution autonome de tâches multi-étapes.

UEL'architecture explicable d'eSEC-LAM et sa légèreté à l'inférence facilitent la certification selon les normes européennes de sécurité fonctionnelle (ISO 10218, EN 13849), un avantage concret pour les intégrateurs industriels européens soumis à l'AI Act.

RecherchePaper
1 source