Aller au contenu principal
L'expression émotionnelle des robots à faibles degrés de liberté : évaluation de la perception avec Reachy Mini
FR/EU ecosystemearXiv cs.RO3h

L'expression émotionnelle des robots à faibles degrés de liberté : évaluation de la perception avec Reachy Mini

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Une étude parue sur arXiv (2605.12786) analyse comment des humains interprètent les expressions émotionnelles du Reachy Mini, robot à faible nombre de degrés de liberté (low-DoF) développé par Pollen Robotics et Hugging Face. Le protocole, mené en ligne avec 100 participants en design intra-sujets, exposait chacun à 10 clips vidéo du robot exprimant différentes émotions ; les participants devaient identifier l'émotion perçue, évaluer sa valence et son éveil (arousal), et noter le robot sur des traits de perception sociale. La reconnaissance exacte s'est révélée globalement modeste : la colère, la tristesse et l'intérêt ont été identifiées de façon fiable, tandis que l'amour, le plaisir, la honte et le dégoût ont été bien moins reconnus. En revanche, les participants ont mieux capté le sens affectif global, sur les axes valence et arousal, que l'étiquette émotionnelle précise.

Ces résultats interrogent un postulat courant en robotique sociale : faut-il de nombreux degrés de liberté pour communiquer une émotion crédible ? La réponse est nuancée. Si la finesse expressive reste hors de portée d'un robot low-DoF, le signal affectif général, positif ou négatif, calme ou activé, passe suffisamment pour influencer la perception sociale : les expressions positives ont été perçues comme plus chaleureuses et sociables que les négatives. Pour les intégrateurs de robots de service ou d'assistance, cela suggère qu'un design expressif minimaliste peut produire des effets relationnels mesurables, sans nécessiter une tête animatronique à haute complexité mécanique.

Pollen Robotics, startup française basée à Bordeaux, a conçu Reachy Mini comme plateforme ouverte pour la recherche en interaction homme-robot (HRI). Son partenariat avec Hugging Face, acteur français de l'IA open-source, vise à connecter le robot à des modèles de perception et de langage accessibles. Dans le paysage concurrentiel, Reachy Mini se positionne face à NAO et Pepper (SoftBank Robotics) sur le segment recherche/éducation, avec un ancrage open-source plus marqué, et s'écarte des androïdes expressifs à haute fidélité comme ceux de Hanson Robotics. Les auteurs proposent d'établir Reachy Mini comme benchmark standardisé pour la communication affective sur robots contraints, et identifient l'interaction physique directe (versus vidéo seule) comme prochaine étape expérimentale.

Impact France/UE

L'étude positionne Reachy Mini de Pollen Robotics (Bordeaux) et Hugging Face comme références en recherche HRI open-source en Europe, avec une preuve empirique qu'un design expressif minimaliste suffit pour des robots de service à moindre complexité mécanique.

À lire aussi

Une peau électronique étirable permet à une main robotique de ressentir le toucher et la pression
1Interesting Engineering 

Une peau électronique étirable permet à une main robotique de ressentir le toucher et la pression

Des chercheurs de l'Université de Turku (Finlande) ont développé une peau électronique étirable, transparente et conductrice, intégrée à une main robotique pour lui conférer une sensibilité au toucher. L'équipe, dirigée par le professeur assistant Vipul Sharma en génie des matériaux, s'est inspirée de l'architecture de structures biologiques comme les feuilles d'arbres pour concevoir un substrat à la fois flexible, respirant et conducteur, combinaison rare dans les matériaux électroniques conventionnels. Des capteurs de pression embarqués dans cette peau répondent au contact et génèrent un retour haptique sur la main instrumentée. La même université développe en parallèle, via Anastasia Koivikko en génie de l'automatisation, des robots à structure souple pour la santé et l'industrie, actionnables par air comprimé, électricité ou fluide, capables d'opérer en espace confiné ou en environnement dangereux, centrales nucléaires et opérations de sauvetage souterraines comprises. Aucune métrique de résolution sensorielle ni calendrier de commercialisation n'est avancé : il s'agit à ce stade d'une preuve de concept en laboratoire. La combinaison de flexibilité mécanique et de perception tactile constitue un verrou pour des marchés à fort impact : prothèses capables de distinguer pression, température et humidité, robots chirurgicaux interagissant en sécurité avec des tissus humains, bras industriels manipulant des objets fragiles en boucle sensorielle fermée. Pour les intégrateurs, la capacité à conformer la peau sur des surfaces courbes comme les doigts ou les membres artificiels sans perte de performance représente un avantage concret sur les capteurs rigides qui équipent la majorité des effecteurs actuels. L'utilisation de biomasse finlandaise issue du bois local comme substrat biosourcé vise à réduire la dépendance aux approvisionnements asiatiques en matériaux d'électronique, enjeu de souveraineté industrielle croissant pour les équipementiers européens sous pression réglementaire. Sur le plan compétitif, la recherche en e-skin mobilise des groupes de référence comme celui de Zhenan Bao à Stanford et plusieurs équipes européennes à l'EPFL et au KIT de Karlsruhe. Des acteurs commerciaux tels que Pressure Profile Systems ou Tekscan proposent déjà des capteurs tactiles flexibles pour la robotique industrielle, mais les substrats biosourcés transparents restent peu exploités commercialement. L'équipe de Turku, positionnée dans l'espace UE, n'annonce ni partenaire industriel ni prototype pré-série. Les suites logiques incluent des tests d'endurance mécanique sous cycles de flexion répétés, la caractérisation précise de la résolution spatiale des capteurs, et un rapprochement potentiel avec des fabricants de prothèses ou des acteurs de la robotique médicale.

UEL'Université de Turku (Finlande, UE) développe un substrat biosourcé issu de biomasse finlandaise locale, réduisant la dépendance européenne aux approvisionnements asiatiques en matériaux électroniques et ouvrant des perspectives pour les fabricants de prothèses et robots médicaux européens.

FR/EU ecosystemePaper
1 source
Hugging Face lance une boîte à outils à base d'agents pour Reachy Mini
2The Robot Report 

Hugging Face lance une boîte à outils à base d'agents pour Reachy Mini

Hugging Face a lancé cette semaine un kit de développement agentique permettant de créer des applications pour Reachy Mini, son robot de bureau open source, sans écrire une seule ligne de code. Le principe : l'utilisateur décrit en langage naturel le comportement souhaité, et un agent IA rédige, teste et déploie automatiquement le code sur le robot. Reachy Mini mesure 27,9 cm de hauteur pour 16 cm de largeur, pèse 1,5 kg et se pilote intégralement depuis une interface web. Plus de 200 applications sont déjà disponibles dans un App Store hébergé sur le Hugging Face Hub, installables en un clic, forkables et modifiables à la demande. Un simulateur navigateur permet également de tester les applications sans posséder le matériel. Parmi les exemples publiés : un tuteur d'accent linguistique, un assistant de cuisine pas-à-pas, un commentateur de Formule 1 en temps réel, ou un jeu inspiré de Squid Game. L'un des cas d'usage mis en avant est celui de Joel Cohen, retraité de 78 ans sans formation technique, qui a construit un co-facilitateur vocal IA pour les groupes de dirigeants qu'il anime sur Zoom : le système dispose de quatre modes de facilitation, d'une banque de plus de 60 questions et reconnaît par son nom chacun de ses 29 participants. Ce lancement illustre un changement de paradigme potentiel dans l'accès au développement robotique. Jusqu'ici, déployer un comportement sur un robot impliquait la maîtrise d'un SDK, la connaissance d'API de bas niveau et un temps d'intégration significatif. Ici, la barrière technique est explicitement remplacée par un agent LLM, ce qui déplace la contrainte vers la qualité du prompt plutôt que vers la compétence en programmation. Pour les intégrateurs et les décideurs B2B, le modèle Hub-plus-simulator offre une logique de validation à coût quasi nul avant achat du matériel physique. Reste à mesurer la robustesse réelle du code généré dans des conditions d'usage prolongé : les 200 applications recensées sont des contributions communautaires récentes, pas des déploiements industriels validés. La distinction entre démo accessible et produit robuste en production reste entière. Hugging Face, souvent décrit comme le "GitHub de l'IA" avec plusieurs millions de développeurs et des dizaines de milliers d'entreprises utilisatrices, a acquis Pollen Robotics en 2024. Cette startup française de Bordeaux est le fabricant de la gamme Reachy, des robots open source à vocation éducative et de recherche. L'intégration de la plateforme Hub à l'écosystème robot concrétise donc une stratégie annoncée lors de l'acquisition : faire de Hugging Face le point d'entrée unique pour le développement robotique grand public. Sur le segment des robots de bureau open source, Reachy Mini se positionne face à des plateformes comme LeRobot (également porté par Hugging Face) ou les kits SO-100/SO-101 de The Robot Company, avec un avantage différenciant sur la fluidité du parcours développeur et l'effet réseau du Hub existant. Aucune timeline de déploiement commercial à grande échelle n'a été communiquée.

UEPollen Robotics, startup française de Bordeaux désormais intégrée à Hugging Face, voit son robot Reachy Mini devenir une plateforme de développement robotique grand public, consolidant le positionnement de la France dans la robotique open source mondiale.

FR/EU ecosystemeOpinion
1 source
AR-VLA : un expert d'action autorégressif pour les modèles vision-langage-action
3arXiv cs.RO 

AR-VLA : un expert d'action autorégressif pour les modèles vision-langage-action

Des chercheurs de l'INSAIT (Institute for Computer Science, Artificial Intelligence and Technology, Sofia, Bulgarie) ont publié début 2026 AR-VLA, une architecture de politique robotique qui remplace les têtes d'action à base de blocs (chunk-based) par un expert d'action autorégressif autonome. Contrairement aux modèles VLA existants, qu'ils soient réactifs ou basés sur la diffusion, qui réinitialisent leur contexte temporel à chaque nouvelle observation, AR-VLA maintient une mémoire longue durée et génère les actions comme une séquence causale continue. Le système intègre un mécanisme de re-ancrage (re-anchoring) pour synchroniser les modalités asynchrones vision-langage-action, compensant mathématiquement le délai entre une perception lente (quelques Hz) et un contrôle moteur rapide (centaines de Hz). Les expériences couvrent des tâches de manipulation en simulation et sur robots réels, où AR-VLA atteint ou dépasse les taux de succès des VLA réactifs de l'état de l'art tout en produisant des trajectoires sensiblement plus lisses. L'enjeu central est le découplage entre raisonnement perceptif lent et contrôle moteur rapide, un problème structurel des architectures VLA actuelles. En traitant les actions comme une séquence autorégressive avec historique persistant plutôt que comme un bloc prédit à chaque nouvelle trame, AR-VLA rend la politique intrinsèquement consciente du contexte : elle sait ce qu'elle vient d'exécuter, pas seulement ce qu'elle observe à l'instant T. Pour les équipes robotiques et les intégrateurs, cette architecture autorise un préentraînement modulaire de la syntaxe cinématique indépendamment du backbone de perception, réduisant potentiellement les coûts de développement de politiques spécialistes ou généralistes. La cohérence spatio-temporelle accrue réduit également les oscillations et les reprises de mouvement, deux facteurs critiques en déploiement industriel. L'INSAIT, fondé en 2022 à Sofia avec le soutien de Google, Microsoft et de l'EPFL, s'est imposé rapidement comme un pôle de recherche en IA en Europe centrale. AR-VLA s'inscrit dans une compétition ouverte sur l'architecture des politiques robot-généralistes, où Physical Intelligence (pi-0, pi-0.5), NVIDIA (GR00T N2), Google DeepMind et des startups comme Figure (Helix) ou 1X défendent des approches concurrentes. L'approche par diffusion, popularisée notamment par pi-0 et Diffusion Policy, constitue l'alternative dominante aux VLA réactifs ; AR-VLA la défie directement en montrant qu'un modèle autorégressif pur peut produire des trajectoires plus cohérentes sans recourir à des processus de débruitage itératifs. AR-VLA demeure pour l'instant un preprint arXiv (2603.10126v2), sans annonce de déploiement industriel ni de commercialisation. Le code et les vidéos de démonstration sont disponibles sur arvla.insait.ai.

UEL'INSAIT (Sofia, Bulgarie), soutenu par Google, Microsoft et l'EPFL, positionne l'UE comme acteur de recherche crédible dans la course aux architectures VLA généralistes ; le code est disponible et testable par les équipes robotiques européennes.

FR/EU ecosystemeOpinion
1 source
Festo présente une pince robotique à base d'IA pour la manipulation de produits variés
4Robotics & Automation News 

Festo présente une pince robotique à base d'IA pour la manipulation de produits variés

Festo, l'équipementier allemand spécialisé en automatisation industrielle, a annoncé le lancement de GripperAI, un logiciel universel basé sur l'intelligence artificielle destiné à piloter des préhenseurs robotiques dans des environnements multi-produits. La solution cible un problème récurrent sur les lignes de production mixtes : lorsqu'une cellule robotisée doit saisir des produits de formes et de tailles variables, l'approche traditionnelle impose une reprogrammation manuelle, une intégration applicative spécifique et le recours à des systèmes de vision 3D coûteux. GripperAI se positionne comme une couche logicielle capable d'absorber cette variabilité sans redéveloppement à chaque référence. L'enjeu industriel est direct : le coût et la durée d'intégration sont aujourd'hui l'un des principaux freins au déploiement de cellules robotisées dans les environnements à forte diversité de SKU, logistique, agroalimentaire, manufacturier léger. Si GripperAI tient sa promesse de réduire la dépendance aux caméras 3D dédiées et à la programmation cas par cas, il pourrait abaisser significativement le seuil d'entrée pour les intégrateurs. Il convient de noter que Festo ne publie pas encore de métriques de cycle ou de taux de succès de préhension dans le communiqué disponible, ce qui rend toute évaluation de performance prématurée à ce stade. Festo est historiquement connu pour ses actionneurs pneumatiques et ses solutions bioinspirées (BionicCobot, Bionic Flying Fox), mais s'oriente depuis plusieurs années vers des briques logicielles pour robot-as-a-service. Sur ce segment des préhenseurs universels pilotés par IA, la concurrence est déjà positionnée : Robai, Righthand Robotics (racheté par BD), ainsi que des solutions vision-first comme Osaro ou CapSen Robotics. La prochaine étape pour Festo sera de démontrer GripperAI sur des configurations réelles en production, avec des données de performance publiées et des références clients vérifiables.

UEFesto étant un équipementier européen (allemand) très présent sur les lignes françaises et européennes, GripperAI pourrait réduire les coûts d'intégration pour les intégrateurs et industriels EU opérant en environnements multi-SKU, sous réserve de métriques de performance vérifiables.

FR/EU ecosystemeOpinion
1 source