
TouchGuide : pilotage en temps réel des politiques visuomotrices par guidage tactile
Une équipe de chercheurs a mis en ligne sur arXiv (réf. 2601.20239, v4) TouchGuide, un cadre permettant d'intégrer le retour tactile dans une politique visuomotrice robotique à l'inférence, sans modifier la politique de base. Le système opère en deux temps : une politique préentraînée, fondée sur la diffusion ou le flow-matching, génère d'abord une action initiale à partir des seules entrées visuelles ; un module appelé Contact Physical Model (CPM), entraîné par apprentissage contrastif sur un nombre limité de démonstrations expertes, réoriente ensuite l'échantillonnage via un score de faisabilité tactile. Les auteurs introduisent également TacUMI, un dispositif de collecte de données à embouts rigides permettant d'obtenir un retour tactile direct à faible coût. Évalué sur cinq tâches à contact riche, dont le laçage de chaussures et le transfert de chips, TouchGuide surpasse de façon significative les politiques visuo-tactiles de référence.
L'enjeu est structurant pour l'industrie : les politiques visuomotrices actuelles, y compris les VLA (Vision-Language-Action), s'appuient quasi exclusivement sur la vision, laissant de côté le toucher malgré son rôle central dans la manipulation de précision. TouchGuide propose une réponse pragmatique en greffant un module tactile à l'inférence sur n'importe quelle politique à base de diffusion, sans modifier les poids d'origine. Ce paradigme "cross-policy" réduit les coûts d'intégration pour les industriels. La démonstration sur le laçage de chaussures, tâche de référence en manipulation fine, apporte un signal encourageant sur la résolution partielle du fossé sim-to-real. Les performances dans des environnements non structurés restent à confirmer indépendamment.
La tactilité en robotique fait l'objet de travaux depuis plus d'une décennie, notamment autour du GelSight du MIT, mais son intégration dans les politiques d'apprentissage par imitation reste un problème ouvert. Contrairement aux approches end-to-end développées chez Google DeepMind ou à CMU, TouchGuide sépare explicitement la politique visuelle du guidage tactile, une architecture modulaire qui se positionne directement face à des travaux comme Tactile Diffusion Policy. Il s'agit pour l'instant d'un preprint non évalué par des pairs, sans déploiement industriel ni timeline annoncés ; les prochaines étapes probables incluent une validation dans des environnements moins contrôlés et sur des robots polyarticulés.
Dans nos dossiers




