Aller au contenu principal
Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap
RecherchearXiv cs.RO1h

Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Une équipe de recherche publie sur arXiv (arXiv:2604.26527) une méthodologie de conception de postes de travail humain-robot adaptés aux personnes en situation de handicap, reposant sur une approche dite "par personas". Le principe : plutôt que de concevoir un système pour un individu spécifique, les chercheurs abstraient les handicaps les plus fréquents en milieu professionnel sous forme de personas typiques, puis décomposent chaque processus de travail en actions séquentielles. Pour chaque combinaison action-persona, des stratégies d'adaptation sont développées par design thinking, classées selon le niveau d'assistance robotique requis, puis encodées dans un arbre de comportement (behavior tree). Le système a été démontré sur une tâche de pliage de boîtes en collaboration avec un robot, en couvrant sept personas présentant des handicaps différents.

L'enjeu industriel est réel : les systèmes HRI existants pour l'intégration des travailleurs handicapés sont aujourd'hui quasi exclusivement personnalisés, ce qui les rend difficilement scalables au-delà d'un utilisateur unique. L'approche par personas vise à combler ce manque en permettant une conception "universelle" sans nécessiter une expertise clinique pointue pour chaque déploiement. L'utilisation d'arbres de comportement offre en outre une adaptation dynamique en ligne, le robot ajuste son niveau d'intervention en temps réel selon le profil identifié de l'opérateur. Les auteurs rapportent des "résultats prometteurs", formulation prudente qui reflète le stade préliminaire de la démonstration : une seule tâche de laboratoire, sept personas simulées, sans validation terrain réelle.

Ce travail s'inscrit dans un champ de recherche en croissance rapide, à l'intersection de la cobotique industrielle et du design inclusif. Le paradigme du "universal design", issu de l'architecture et de l'ergonomie, est ici transposé à la robotique collaborative, un transfert encore peu documenté dans la littérature HRI. Aucun acteur industriel ni partenaire terrain n'est mentionné dans ce preprint, ce qui limite la portée immédiate des conclusions. Les prochaines étapes naturelles seraient une validation avec des utilisateurs réels en situation de handicap, et une extension à des processus industriels plus complexes que le pliage de carton. Du côté européen, des acteurs comme Enchanted Tools ou des laboratoires spécialisés en robotique d'assistance (INRIA, DLR) pourraient trouver dans cette approche un cadre méthodologique directement applicable à leurs travaux sur l'autonomie et l'adaptation comportementale.

Impact France/UE

Le cadre méthodologique proposé pourrait être adopté par des laboratoires européens comme l'INRIA ou le DLR pour structurer leurs travaux sur l'adaptation comportementale des cobots en contexte inclusif.

À lire aussi

Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle
1arXiv cs.RO 

Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle

Une équipe de chercheurs a soumis fin avril 2026 sur arXiv (référence 2604.15339) un article proposant un cadre conceptuel unifié pour trois notions centrales de l'interaction humain-robot : l'incertitude, le flou et l'ambiguïté. Le constat de départ est empirique : dans la littérature HRI, ces trois termes sont régulièrement définis de manière contradictoire d'une étude à l'autre, voire utilisés comme synonymes. Les auteurs partent des définitions lexicographiques, analysent les distinctions et les relations entre ces concepts dans le contexte spécifique du HRI, illustrent chaque notion par des exemples concrets, puis démontrent comment ce socle cohérent permet de concevoir de nouvelles méthodes et d'évaluer les méthodologies existantes avec plus de rigueur. L'enjeu n'est pas seulement terminologique. Quand deux équipes utilisent le mot "ambiguïté" pour désigner des phénomènes différents, leurs résultats expérimentaux deviennent non comparables, et la capitalisation théorique du domaine ralentit. Pour un intégrateur ou un concepteur de systèmes robotiques interactifs, cette confusion a des conséquences pratiques : les métriques d'évaluation divergent, les benchmarks perdent leur valeur de référence, et le transfert de résultats de laboratoire vers des déploiements réels est fragilisé. En établissant des frontières claires entre ces trois concepts, le papier prépare le terrain pour des protocoles d'évaluation reproductibles et des méta-analyses plus robustes, deux prérequis pour une maturation industrielle du HRI. Ce travail s'inscrit dans un mouvement plus large de structuration académique du HRI, discipline jeune à l'intersection de la robotique, des sciences cognitives et de la linguistique. Le problème de l'incohérence terminologique y est identifié depuis plusieurs années, notamment dans des travaux sur la communication intentionnelle et la résolution de références entre humains et robots. Les auteurs ne proposent pas ici un nouveau système technique mais une infrastructure conceptuelle, ce qui est typiquement le type de contribution qui précède une normalisation de fait dans un domaine. Les prochaines étapes naturelles seraient l'adoption de ce cadre dans des conférences de référence comme HRI, RO-MAN ou HRI Workshop de l'IEEE, et son intégration dans des protocoles d'évaluation standardisés pour les assistants robotiques en environnement industriel ou de service.

RecherchePaper
1 source
Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert
2arXiv cs.RO 

Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.15814) un framework d'étalonnage main-oeil continu (continual hand-eye calibration) destiné aux robots manipulateurs déployés dans des environnements ouverts et changeants. Le problème adressé est précis : les modèles de calibration basés sur le deep learning perdent leur précision sur les scènes précédemment apprises dès qu'ils s'adaptent à un nouvel environnement, un phénomène connu sous le nom d'oubli catastrophique (catastrophic forgetting). Le framework proposé repose sur deux composants distincts. Le premier, SARS (Spatial-Aware Replay Strategy), construit un buffer de rejeu géométriquement uniforme qui couvre l'espace de poses de chaque scène sans redondance, en sélectionnant les points de vue les plus informatifs plutôt que les frames adjacentes. Le second, SPDD (Structure-Preserving Dual Distillation), décompose la connaissance de localisation en deux niveaux, la structure grossière de la scène et la précision fine de pose, puis applique une distillation séparée pour préserver les deux dimensions lors des adaptations successives. Les expériences sur plusieurs datasets publics confirment que le modèle maintient la précision sur les scènes passées tout en s'adaptant aux nouvelles. L'enjeu industriel est réel : un bras manipulateur recalibré pour une nouvelle cellule de production ne devrait pas perdre sa précision sur les postes précédents. C'est le problème quotidien des intégrateurs qui déploient des robots dans des lignes flexibles ou multi-produits. La plupart des approches actuelles imposent soit un recalibrage complet à chaque changement de scène, soit acceptent une dégradation progressive des performances sur les configurations antérieures. Ce travail propose une voie intermédiaire via l'apprentissage continu structuré, sans recourir à un replay naïf qui ne suffit pas à enrayer l'oubli. L'approche par distillation duale est notamment pertinente car elle distingue deux types d'erreur, positionnement global et précision locale, ce que les méthodes monolithiques ne font pas. Ce travail s'inscrit dans un champ de recherche en forte activité depuis 2022, où la robustesse de la calibration visuelle en conditions réelles est identifiée comme l'un des goulots d'étranglement pour le passage à l'échelle des manipulateurs autonomes. La localisation visuelle pour la calibration main-oeil emprunte aux techniques de Visual Place Recognition (VPR) et de relocalisation utilisées en navigation mobile, mais les contraintes de précision sous-millimétrique propres à la manipulation y ajoutent une difficulté spécifique. Parmi les acteurs qui travaillent sur des problèmes adjacents figurent des équipes comme Physical Intelligence (pi) avec Pi-0, ou des laboratoires comme le Stanford AI Lab et ETH Zurich sur la sim-to-real calibration. En France, des acteurs comme Enchanted Tools et Pollen Robotics, qui développent des plateformes d'interaction physique, sont directement concernés par ce type de verrou. La prochaine étape naturelle pour ce framework serait une validation sur des données industrielles réelles et une intégration dans des pipelines de déploiement multi-cellules, que les auteurs n'ont pas encore annoncée.

UEEnchanted Tools et Pollen Robotics, qui développent des plateformes de manipulation physique en France, sont directement concernés par ce verrou de calibration continue, susceptible de réduire les coûts de redéploiement en production flexible.

RecherchePaper
1 source
Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot
3arXiv cs.RO 

Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot

Une équipe de chercheurs a publié sur arXiv (ref. 2404.19670) un framework baptisé RAPIDDS, conçu pour améliorer la collaboration entre humains et robots dans des environnements industriels répétitifs, typiquement les lignes de fabrication. Le système opère sur plusieurs cycles de travail successifs : à chaque cycle, il apprend les comportements spatiaux (trajectoires réelles empruntées par l'opérateur) et temporels (temps effectifs de réalisation de chaque tâche) propres à l'individu face à lui. Ces modèles personnalisés alimentent ensuite deux mécanismes couplés : un planificateur de tâches qui réorganise allocations et séquençages, et un modèle de diffusion qui steer les trajectoires du robot en temps réel pour éviter les zones de proximité critique. Les expériences ont été conduites en simulation, puis sur un bras robotique à 7 degrés de liberté (7-DOF) dans un scénario physique, et validées par une étude utilisateur portant sur 32 participants (n=32). Les résultats montrent une amélioration significative sur des indicateurs objectifs (efficacité, distance de proximité) et subjectifs (fluidité perçue, préférence utilisateur) par rapport à un système non adaptatif. L'apport central de RAPIDDS réside dans la jonction de deux niveaux d'adaptation longtemps traités séparément dans la littérature. Les méthodes de planification de tâches optimisaient l'allocation et le séquençage mais ignoraient les interférences spatiales en situation de proximité étroite ; les méthodes de niveau motion se concentraient sur l'évitement de collision sans tenir compte du contexte global de la tâche. Unifier les deux, en les calibrant sur un modèle individuel mis à jour cycle après cycle, représente un changement concret de posture pour les déploiements industriels : le robot ne s'adapte pas à un opérateur générique, mais à la personne précise qui travaille ce jour-là, avec ses rythmes et ses habitudes de déplacement. Ce travail s'inscrit dans un courant plus large d'utilisation des modèles de diffusion pour la génération de trajectoires robotiques, un terrain que des acteurs comme Physical Intelligence (Pi-0) ou NVIDIA (GR00T N2) exploitent côté manipulation généraliste. RAPIDDS se distingue par sa focalisation sur la couche adaptation humain-robot plutôt que sur la polyvalence du modèle de motion. Le papier reste pour l'instant un preprint arXiv non encore soumis à peer-review, et aucun déploiement industriel ni partenariat avec un intégrateur n'est mentionné. La prochaine étape naturelle serait une validation sur des opérateurs en conditions réelles de production, avec une diversité de profils moteurs, pour tester la robustesse de la personnalisation au-delà d'un environnement contrôlé.

RecherchePaper
1 source
Concevoir des robots pour renforcer le lien parent-enfant : opportunités de la communication par robot interposé
4arXiv cs.RO 

Concevoir des robots pour renforcer le lien parent-enfant : opportunités de la communication par robot interposé

Des chercheurs en robotique ont publié une étude explorant comment les robots pourraient renforcer les liens entre parents et enfants, plutôt que de les remplacer. Présentée dans un article soumis à arXiv (référence 2604.23976), cette recherche a mobilisé deux protocoles distincts impliquant des familles avec des enfants de 5 à 12 ans. Une première phase d'exploration s'est déroulée directement au domicile de six familles, à l'aide de prototypes technologiques placés dans leur environnement quotidien. Ces observations ont permis d'identifier deux variables clés à tester : le comportement du robot (passif, réactif ou proactif) et le mode de communication entre les membres de la famille (synchrone ou asynchrone). Une seconde étude en laboratoire a ensuite impliqué 20 familles pour mesurer l'impact de ces paramètres sur la qualité des échanges parent-enfant. Les résultats montrent que les familles se sont approprié les échanges médiatisés par le robot de manières très variées, révélant des tensions autour de questions d'initiative, de timing et de vie privée. Selon le comportement programmé du robot, les dynamiques d'interaction changeaient sensiblement : un robot proactif pouvait initier des échanges, tandis qu'un robot passif attendait que l'humain prenne les rênes. Ces nuances ont des implications concrètes pour les familles où les parents sont souvent absents ou peu disponibles, comme dans les foyers avec des horaires de travail décalés ou des situations de séparation parentale. Cette recherche s'inscrit dans un débat plus large sur le rôle des technologies dans la vie familiale. Alors que les smartphones, écrans et assistants vocaux sont régulièrement accusés d'isoler les individus les uns des autres, ces travaux ouvrent une piste alternative : concevoir des outils numériques qui favorisent activement la connexion humaine. La robotique sociale, encore marginale dans les foyers, pourrait ainsi trouver un créneau utile au-delà de l'assistance aux personnes âgées ou du divertissement. Les prochaines étapes de ce programme de recherche pourraient inclure des tests sur des durées plus longues et dans des contextes familiaux plus diversifiés, notamment en situation de garde alternée ou de distance géographique.

UELes chercheurs européens en robotique sociale pourraient s'appuyer sur ces travaux pour développer des prototypes adaptés aux réalités familiales françaises, notamment dans le contexte des familles recomposées ou à horaires décalés.

RechercheActu
1 source