Aller au contenu principal
GA3T : jeu de données de traversabilité pour équipes de robots sol-aériens hétérogènes en milieux non structurés
RecherchearXiv cs.RO4j

GA3T : jeu de données de traversabilité pour équipes de robots sol-aériens hétérogènes en milieux non structurés

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Une équipe de chercheurs a publié GA3T (Ground-Aerial Team for Terrain Traversal), un jeu de données de perception collaborative multi-robots ciblant les environnements non structurés, déposé sur arXiv en mai 2026. La collecte a mobilisé deux plateformes complémentaires : un robot terrestre Clearpath Husky (UGV) équipé de LiDAR 3D, caméra stéréo, IMU et GPS, et un drone Autel EVO II fournissant images RGB, observations thermiques/infrarouges et GPS depuis un point de vue aérien surplombant. Quatre environnements distincts ont été couverts -- sentiers forestiers, chemins rocheux, terrains boueux, congères et prairies -- pour un total de plus de 13 000 frames synchronisées sur environ 29 minutes d'opération. Le jeu de données intègre une segmentation zero-shot basée sur SAM 3 (Segment Anything Model v3, Meta) et plus de 8 000 images labellisées manuellement. Sa particularité tient à la période de collecte, en début de printemps : la canopée encore peu dense permet au drone d'observer partiellement le robot terrestre à travers les arbres, enrichissant la perception collaborative d'une dimension explicite de gestion des occlusions.

GA3T comble un vide documenté dans la recherche sur la perception multi-robots en conditions réelles hors route. La quasi-totalité des datasets multi-robots existants se concentre sur le SLAM en environnements structurés ou sur la conduite coopérative simulée, sans fournir de capteurs multi-modaux chevauchants entre plateformes sol et air. La combinaison LiDAR terrestre et infrarouge aérien ouvre des pistes directes pour l'estimation de traversabilité -- problème central pour les déploiements autonomes en agriculture de précision, foresterie ou gestion de crise -- où les modèles doivent distinguer sol franchissable, boue instable et végétation dense sans balisage préalable. C'est précisément ce gap sim-to-real sur terrain non balisé que ce type de dataset vise à réduire, en fournissant des données brutes issues de conditions météo et de sol réelles.

Clearpath Robotics, filiale de Rockwell Automation depuis 2023 et fournisseur de référence pour les UGV de recherche universitaire, est associé ici à l'Autel EVO II, drone commercial grand public repositionné en plateforme de collecte scientifique. Aucun acteur européen n'est impliqué dans cette publication. Sur le plan concurrentiel, GA3T se positionne face à des datasets établis comme RUGD, RELLIS ou le corpus DARPA SubT, mais avec l'angle inédit de la fusion cross-view air-sol sur terrain naturel non aménagé. Les auteurs ciblent explicitement comme applications prioritaires la fusion de points de vue hétérogènes, l'estimation de traversabilité et la compréhension de scènes collaboratives -- tâches directement pertinentes pour l'entraînement de modèles VLA (Vision-Language-Action) appliqués à la navigation hors route, un axe de recherche en forte accélération depuis 2024 dans plusieurs laboratoires américains et asiatiques.

Dans nos dossiers

À lire aussi

Au-dessus et en dessous : SLAM multi-robots hétérogène pour domaines de surface et sous-marins
1arXiv cs.RO 

Au-dessus et en dessous : SLAM multi-robots hétérogène pour domaines de surface et sous-marins

Une équipe de chercheurs a publié sur arXiv (référence 2605.09811) un système de cartographie et localisation simultanées multi-robots (SLAM) capable de fusionner les données d'un véhicule de surface autonome (USV) et de plusieurs véhicules sous-marins autonomes (AUV) en une seule carte cohérente. Là où les approches existantes recouraient au ping acoustique entre robots pour mesurer les distances, ce travail exploite une observation géométrique : certaines structures présentes dans les environnements maritimes sont visibles à la fois depuis la surface et depuis le fond, ce qui permet d'établir des fermetures de boucle visuelles inter-robots. Chaque robot effectue sa propre estimation d'état en autonomie, puis un nœud centralisé détecte ces correspondances croisées USV-AUV et fusionne l'ensemble des trajectoires dans un graphe de poses unique couvrant la totalité de la mission. Le système a été validé sur des données perceptuelles réelles dans trois environnements distincts, montrant une réduction des erreurs de localisation pour les AUVs par rapport au SLAM mono-robot sur les mêmes trajectoires. L'intérêt opérationnel est direct : le ping acoustique impose que les robots se trouvent à portée mutuelle simultanément, que le signal ne soit pas obstrué, et souvent que les horloges soient synchronisées, contraintes difficiles à tenir dans des environnements encombrés (quais, infrastructures offshore, épaves). En s'affranchissant de ces dépendances, cette approche ouvre la voie à des missions d'inspection sous-marine plus longues et plus autonomes, notamment pour le monitoring de pipelines, de fondations d'éoliennes offshore ou de structures portuaires, sans déployer d'infrastructure acoustique dédiée. Le papier constitue également une preuve de faisabilité que le sim-to-real gap dans la mise en correspondance de features visuels cross-domaines (surface vs sous-eau) est franchissable sur données réelles. Ce travail s'inscrit dans un corpus de recherche récent sur la fermeture de boucle inter-robots entre USVs et AUVs, dont il représente l'extension vers un système complet multi-robots centralisé. Dans le paysage de la robotique maritime, les acteurs industriels comme Saildrone (USV), Kongsberg ou Hydroid (AUV) s'appuient encore largement sur l'USBL acoustique pour le positionnement sous-marin relatif. Une approche purement visuelle et géométrique comme celle-ci, si elle passe à l'échelle, pourrait réduire significativement le coût et la complexité logistique des flottes hétérogènes. Les auteurs ne mentionnent pas de partenaire industriel ni de calendrier de déploiement : il s'agit pour l'instant d'une contribution académique, validée sur terrain, mais sans annonce de commercialisation.

UEPertinent pour les opérateurs européens d'éoliennes offshore et d'infrastructures portuaires (Mer du Nord, Baltique) qui dépendent aujourd'hui de l'USBL acoustique coûteux pour les inspections sous-marines autonomes.

RecherchePaper
1 source
DC-Ada : adaptation décentralisée des capteurs par récompense seule pour des équipes multi-robots hétérogènes
2arXiv cs.RO 

DC-Ada : adaptation décentralisée des capteurs par récompense seule pour des équipes multi-robots hétérogènes

Une équipe de chercheurs propose DC-Ada, une méthode d'adaptation décentralisée pour les équipes multi-robots hétérogènes, publiée sur arXiv (2604.03905). Le problème ciblé est concret : lorsqu'un essaim de robots est déployé, les plateformes diffèrent souvent en modalités de capteurs, en champs de vision, en portée, et en modes de défaillance. Un contrôleur entraîné sur une configuration "nominale" se dégrade significativement dès qu'un robot présente des capteurs manquants ou non conformes, même si la tâche reste identique. DC-Ada répond à ce problème en maintenant la politique partagée préentraînée entièrement gelée, et en adaptant uniquement des transformations d'observation compactes, propres à chaque robot, pour les faire correspondre à une interface d'inférence fixe. La méthode est sans gradient et ne nécessite qu'un minimum de communication : elle repose sur une recherche aléatoire accept/refus avec tirage à nombres aléatoires communs, sous un budget strict de 200 000 pas d'environnement joints par run. Les expériences couvrent trois tâches (logistique d'entrepôt, recherche et sauvetage, cartographie collaborative), quatre régimes d'hétérogénéité (H0 à H3) et cinq graines, comparées à quatre baselines. Les résultats offrent une image nuancée qui mérite d'être soulignée : aucune méthode ne domine sur l'ensemble des tâches et métriques. La normalisation d'observation est la plus robuste en termes de récompense pour la logistique d'entrepôt et compétitive en recherche et sauvetage, tandis que la politique gelée sans adaptation donne les meilleures récompenses en cartographie collaborative. DC-Ada se distingue précisément dans les scénarios de cartographie sévère (H3), où il améliore le taux de complétion de mission. Surtout, il n'exige que des retours scalaires d'équipe, sans fine-tuning de politique ni communication persistante entre agents, ce qui le rend utilisable à l'heure du déploiement sans modifier l'infrastructure existante. Ce travail s'inscrit dans une tendance croissante à traiter la robustesse post-déploiement comme un problème distinct de l'entraînement. Les approches concurrentes incluent les méthodes d'adaptation centralisées, le fine-tuning par domaine, et les techniques de transfert sim-to-réel classiques, qui supposent toutes un accès à la politique ou à des gradients. La limite principale de DC-Ada reste son évaluation sur simulateur 2D déterministe uniquement : la validation sur hardware réel avec des capteurs physiquement défaillants reste à démontrer. Les prochaines étapes logiques sont l'extension à des équipes plus larges, des environnements stochastiques, et une évaluation sur des plateformes physiques hétérogènes comme celles que développent des acteurs européens tels que Enchanted Tools ou les écosystèmes ROS2 industriels.

RecherchePaper
1 source
Bi3 : un jeu de données biplateforme, biculturel et bipersonnel pour la navigation des robots sociaux
3arXiv cs.RO 

Bi3 : un jeu de données biplateforme, biculturel et bipersonnel pour la navigation des robots sociaux

Bi3 est un jeu de données pour la navigation sociale de robots en espaces contraints, publié en preprint sur arXiv en mai 2026. L'expérience place systématiquement un robot face à deux humains dans un espace de laboratoire restreint, avec 74 participants recrutés sur deux sites : un aux États-Unis, un en France. Le dataset totalise 10,5 heures de trajectoires avec vérité terrain pour humains et robots, des flux vidéo RGB et des évaluations subjectives des participants sur les performances du robot. Cinq algorithmes de navigation distincts ont été testés sur deux plateformes robotiques différentes, ce qui constitue une couverture algorithmique et matérielle inédite dans ce domaine. La navigation sociale en milieu dense reste l'un des verrous techniques majeurs de la robotique de service et de la logistique en environnement humain. Les benchmarks existants souffrent généralement d'un biais culturel marqué et d'une densité d'interaction artificiellement faible. Bi3 cible ces lacunes directement : la dimension biculturelle France/USA permet de tester si les comportements proximaux humains varient selon les normes sociales locales, une hypothèse rarement éprouvée empiriquement. Les métriques publiées, densité d'interaction et vélocité humaine, montrent une complexité comportementale supérieure aux datasets précédents, ce qui en fait un terrain d'évaluation plus exigeant pour les modèles de prédiction de mouvement et les politiques de contrôle de navigation. Ce dataset s'inscrit dans l'effort collectif de la communauté robotique pour réduire l'écart entre simulations et déploiements réels. La présence d'un site de collecte en France est notable : elle apporte une représentation européenne rare dans ce type de benchmark, où les données américaines ou asiatiques dominent historiquement. Bi3 est conçu comme une ressource ouverte pour entraîner des architectures VLA (Vision-Language-Action) et des politiques de navigation en espaces denses, ainsi que des modèles de prédiction de mouvement humain. À ce stade, il s'agit d'un preprint académique, pas d'un déploiement opérationnel. Les suites naturelles incluent l'intégration dans des benchmarks standardisés et l'utilisation pour affiner des politiques de navigation sur des AMR (Autonomous Mobile Robots) en environnement industriel ou hospitalier.

UELa présence d'un site de collecte en France apporte des données comportementales européennes dans un benchmark de navigation sociale, offrant une référence plus représentative pour calibrer des AMR déployés en milieu hospitalier ou industriel en Europe.

RecherchePaper
1 source
Lucid-XR : un moteur de données en réalité étendue pour la manipulation robotique
4arXiv cs.RO 

Lucid-XR : un moteur de données en réalité étendue pour la manipulation robotique

Une équipe de chercheurs a présenté Lucid-XR, un moteur de données génératif pour produire des données d'entraînement synthétiques multimodales destinées aux robots réels. Publié début mai 2026 sur arXiv (référence 2605.00244), le système repose sur vuer, un environnement de simulation physique web qui s'exécute directement sur un casque de réalité étendue (XR), sans équipement spécialisé. Lucid-XR intègre simulation physique embarquée et retargeting de posture humain-vers-robot : un opérateur pilote un avatar virtuel dont les mouvements sont convertis en trajectoires exploitables par le robot cible. Ces données sont ensuite amplifiées par un pipeline de génération vidéo guidé par la physique, paramétrable via des instructions en langage naturel. Les auteurs démontrent un transfert zéro-shot de politiques visuelles vers des environnements réels non vus lors de l'entraînement, y compris des scènes encombrées et mal éclairées, sur des tâches de manipulation impliquant matières souples, particules non liées (sable, grains) et contacts rigides. Le résultat central est ce transfert zéro-shot : la politique entraînée exclusivement sur données synthétiques opère directement sur robot réel, sans fine-tuning en environnement physique. C'est précisément le "sim-to-real gap" qui bloque le déploiement industriel des politiques d'imitation depuis des années. En rendant la collecte accessible via un casque XR grand public et en augmentant automatiquement le volume de données par génération vidéo, Lucid-XR s'attaque simultanément aux deux goulots d'étranglement classiques des VLA (Vision-Language-Action models) : quantité et diversité des données. La manipulation de matières particulaires reste un cas notoirement difficile pour les approches classiques, ce qui rend ces démonstrations pertinentes, même si les vidéos sélectionnées publiées sur le site projet ne permettent pas d'évaluer le taux d'échec réel. Ce travail entre en concurrence directe avec les moteurs de données synthétiques existants : NVIDIA Isaac Lab pour la simulation, les jeux de données de téléopération massive de Physical Intelligence (Pi-0) ou Google DeepMind (GR00T N2, déployé chez Figure et Agility Robotics). Des initiatives ouvertes comme Open-X Embodiment misent sur la mutualisation de données réelles. La distinction de Lucid-XR est de parier sur l'accessibilité matérielle et l'augmentation par génération vidéo plutôt que sur des fermes de téléopération coûteuses. Aucun partenariat industriel ni calendrier de déploiement n'est mentionné dans la publication, qui reste pour l'instant une preuve de concept académique sans validation à l'échelle industrielle.

RechercheOpinion
1 source