
Bonne démonstration dans les mauvaises : filtrer les données d'utilisateurs pour apprendre une politique plus robuste
Une équipe de chercheurs a publié en mai 2026 sur arXiv (identifiant 2605.01529) un algorithme baptisé GiB (Good-in-Bad), conçu pour filtrer automatiquement les données d'apprentissage par imitation collectées auprès d'utilisateurs non-experts. Plutôt que de rejeter une démonstration entière ou de l'utiliser telle quelle au risque de générer des comportements dangereux, GiB décompose chaque démonstration en sous-tâches et attribue un poids binaire à chaque segment. Le système entraîne un modèle auto-supervisé pour extraire des caractéristiques latentes, modélise la distribution des segments de qualité élevée, puis utilise la distance de Mahalanobis pour détecter les portions défectueuses. Les données filtrées restent compatibles avec n'importe quel algorithme d'apprentissage de politique. La méthode a été validée sur un bras Franka Robotics en simulation et en conditions réelles, sur des tâches séquentielles multi-étapes.
L'enjeu est concret : dans les déploiements réels, les démonstrateurs sont rarement des experts en robotique. Opérateurs en usine ou techniciens produisent des démonstrations hétérogènes où erreurs et bonnes séquences se mélangent. Jeter des démonstrations entières dans ces contextes à faible volume de données pénalise fortement l'entraînement. GiB préserve les segments exploitables tout en évitant que les erreurs contaminent la politique apprise. Cela adresse un angle mort persistant des méthodes d'imitation comme le behavior cloning ou les Diffusion Policies : ces architectures supposent implicitement des données propres, ce qui limite leur déployabilité hors des laboratoires. La compatibilité avec n'importe quel algorithme aval est un atout pratique pour les équipes disposant déjà d'une stack d'entraînement existante.
L'apprentissage par imitation s'est imposé ces trois dernières années comme une voie majeure pour doter les robots de compétences polyvalentes, avec des architectures comme ACT (Action Chunking with Transformers) popularisé par l'équipe Aloha, ou les Diffusion Policies de Columbia. GiB s'inscrit dans une tendance émergente visant à rendre ces pipelines robustes aux données bruyantes, aux côtés de méthodes comme DART ou les variantes de DAgger. Le bras Franka (Franka Robotics, Munich) est devenu le banc de test standard de la communauté académique en manipulation. Ce travail reste à ce stade un preprint sans déploiement industriel annoncé, et ses performances sur des tâches longues ou sur des manipulateurs mobiles humanoïdes restent à démontrer.
Les équipes européennes de recherche en manipulation robotique utilisant des bras Franka (Munich, Allemagne) pourraient intégrer GiB directement dans leurs pipelines d'imitation learning existants pour améliorer la qualité des politiques entraînées sur des données non-expertes.
Dans nos dossiers




