Aller au contenu principal
Robot Talk, épisode 154 : la navigation visuelle chez les insectes et les robots, avec Andrew Philippides
RechercheRobohub2h

Robot Talk, épisode 154 : la navigation visuelle chez les insectes et les robots, avec Andrew Philippides

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Andrew Philippides, professeur de biorobotique à l'Université du Sussex (Royaume-Uni), mène des travaux à l'intersection de la biologie expérimentale, de la robotique et du machine learning pour décoder les mécanismes de navigation visuelle chez les insectes sociaux. Co-directeur du Centre for Computational Neuroscience and Robotics et du programme doctoral be.AI (financé par le Leverhulme Trust), il étudie spécifiquement comment les fourmis et les abeilles parviennent à se repérer et à apprendre des trajectoires complexes avec un cerveau de quelques milliers de neurones seulement.

L'enjeu pour la robotique mobile est direct : les algorithmes de navigation actuels (SLAM, odométrie visuelle) restent coûteux en calcul et fragiles face aux environnements non structurés. Les insectes, eux, résolvent ce problème avec une efficacité énergétique et computationnelle hors norme. Comprendre ces mécanismes permet de concevoir des algorithmes bioinspiré légers, potentiellement déployables sur des robots à ressources contraintes, drones miniatures, robots agricoles autonomes, robots d'inspection en milieu dégradé.

Les travaux de Philippides s'inscrivent dans un courant de recherche en pleine expansion qui inclut des équipes comme celle d'Antoine Wystrach (CNRS Toulouse) sur la navigation des fourmis, ou les projets de robotique neuromorphique portés par Intel (Loihi) et l'Université de Zurich. Le groupe du Sussex collabore avec des biologistes comportementaux pour valider les modèles sur terrain réel, limitant ainsi le sim-to-real gap qui affecte nombre d'approches purement computationnelles. Les prochaines étapes annoncées portent sur l'intégration de ces algorithmes dans des plateformes robotiques embarquées.

Impact France/UE

Les travaux d'Antoine Wystrach au CNRS Toulouse sur la navigation des fourmis s'inscrivent directement dans ce courant de recherche bioinspiré, positionnant la France comme contributeur actif à la conception d'algorithmes de navigation légers pour drones agricoles et robots d'inspection.

À lire aussi

Robot Talk, épisode 153 : des robots inspirés de l'origami, avec Chenying Liu
1Robohub 

Robot Talk, épisode 153 : des robots inspirés de l'origami, avec Chenying Liu

Chenying Liu, Junior Research Fellow et Associate Member of Faculty au Department of Engineering Science de l'Université d'Oxford, était l'invitée du 153e épisode du podcast Robot Talk pour présenter ses travaux sur l'intelligence physique incarnée (embodied physical intelligence). Sa recherche explore comment la forme physique d'un robot peut activement contribuer à la perception, au traitement de l'information, à la prise de décision et au mouvement, en s'inspirant notamment des principes géométriques de l'origami. L'épisode ne communique pas de métriques techniques précises, pas de charges utiles, de degrés de liberté ni de résultats expérimentaux chiffrés, ce qui le situe davantage dans la vulgarisation académique que dans l'annonce produit. L'approche d'Oxford que défend Liu représente un contrepoids notable au paradigme dominant du tout-logiciel : plutôt que de déléguer l'intelligence uniquement aux modèles de fondation et aux VLA (Vision-Language-Action models), l'idée est d'intégrer la computation directement dans la géométrie et les matériaux du robot. Cette co-conception mécanique-contrôle promet des systèmes plus robustes et plus efficaces en énergie, particulièrement pertinents pour des environnements non structurés où les modèles sim-to-real peinent encore. Ce courant de recherche, parfois appelé morphological computation ou soft robotics computationnelle, est actif dans plusieurs laboratoires mondiaux, MIT CSAIL, ETH Zurich, EPFL, ainsi qu'en France au CNRS LIRMM et à l'INRIA. Oxford se positionne ici via une chercheuse indépendante dont le programme, encore jeune, n'a pas encore de partenaires industriels publiquement annoncés. La prochaine étape naturelle serait une publication de résultats expérimentaux ou un prototype démontrant le gain d'autonomie promis par cette philosophie de conception.

UELe CNRS LIRMM et l'INRIA sont cités comme acteurs du courant de computation morphologique, mais l'épisode de podcast n'a pas d'impact opérationnel direct sur l'écosystème français.

RecherchePaper
1 source
Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision
2arXiv cs.RO 

Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision

Des chercheurs ont publié sur arXiv (référence 2604.16741) une étude portant sur la navigation autonome de robots mobiles dans des environnements piétonniers à forte densité, en s'appuyant sur une représentation simplifiée des groupes de piétons détectés par LiDAR. Le problème central qu'ils adressent est bien identifié dans le secteur : naviguer socialement en foule dense reste un verrou applicatif majeur pour les AMR déployés en gare, aéroport ou centre commercial. Les approches existantes souffrent de deux limites structurelles : soit elles n'ont été testées qu'en faible densité, soit elles reposent sur des modules de détection externe d'individus, particulièrement sensibles aux occlusions et au bruit de capteur propres aux foules compactes. Les auteurs proposent en réponse une représentation dite "visible edge-based" des groupes, qui exploite uniquement les arêtes visibles entre piétons détectés, sans reconstruction complète des trajectoires individuelles. Le résultat le plus significatif de ce travail est contre-intuitif : la précision de la prédiction des groupes n'influence que marginalement les performances de navigation en environnement dense. Cela suggère qu'une représentation simplifiée, computationnellement moins coûteuse, peut atteindre des niveaux de sécurité et de "socialness" comparables à des approches plus complexes. Pour les intégrateurs et les équipes R&D déployant des robots de service en milieu public, cette observation est directement actionnables : elle légitime une réduction significative de la complexité du pipeline de perception sans dégradation mesurable du comportement social du robot. Les expériences en simulation confirment cette parité de performance, et la vitesse de calcul accrue ouvre la voie à des déploiements sur hardware embarqué plus contraint. Le contexte académique de ce travail s'inscrit dans une littérature active sur la navigation socialmente conforme (socially-aware navigation), dont les jalons incluent les travaux sur ORCA, SARL ou encore CADRL. La prise en compte des groupes comme unité comportementale plutôt que des individus isolés remonte à des études empiriques en sciences sociales (théorie des F-formations), et plusieurs équipes travaillent sur ce sujet, notamment à travers les benchmarks de navigation piétonnière en robotique de service. L'étape suivante naturelle serait une validation à plus grande échelle en conditions réelles, les auteurs ayant pour l'instant limité les expériences terrain à un seul robot dans un environnement contrôlé.

RecherchePaper
1 source
Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots
3arXiv cs.RO 

Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots

Des chercheurs ont publié sur arXiv (référence 2504.17679) un framework de navigation intérieure combinant deux familles d'algorithmes jusqu'ici utilisées séparément : la reachability hamiltonienne-jacobienne (HJ), calculée hors-ligne, et la recherche sur graphe, exécutée en ligne. Le principe : les fonctions de valeur HJ, précomputées sur la géométrie de l'environnement, servent à la fois d'heuristiques informatives et de contraintes de sécurité proactives pour guider la recherche sur graphe en temps réel. Le système a été validé en simulation extensive et dans des expériences en conditions réelles, incluant des environnements avec présence humaine. Aucun modèle de robot spécifique ni aucune entreprise commerciale ne sont mentionnés dans la publication, qui s'inscrit dans un cadre académique pur. L'intérêt principal de cette approche réside dans la gestion du compromis entre sécurité garantie et efficacité computationnelle, un point de friction classique pour les robots mobiles en intérieur (AMR, plateformes logistiques). La reachability HJ offre des garanties théoriques solides sur l'évitement d'obstacles, mais elle souffre d'une limitation structurelle : elle suppose une connaissance complète de l'environnement, ce qui la rend difficilement applicable à des espaces dynamiques ou partiellement inconnus. En intégrant la reachability comme heuristique plutôt que comme planificateur principal, les auteurs contournent cette contrainte tout en amortissant le coût de calcul en ligne. Les résultats annoncés montrent une amélioration consistante face aux méthodes de référence, tant en efficacité de planification qu'en sécurité, mais les métriques précises (temps de cycle, taux de collision) ne sont pas détaillées dans le résumé disponible. La reachability HJ est un outil issu de la théorie du contrôle optimal, historiquement utilisé pour la vérification formelle de systèmes cyber-physiques. Son application à la robotique mobile n'est pas nouvelle, mais son couplage avec des algorithmes de recherche sur graphe type A* pour surmonter la contrainte de connaissance globale de l'environnement représente une direction de recherche active. Ce travail se positionne face aux approches purement apprentissage (VLA, politiques end-to-end) en revendiquant des garanties formelles absentes des méthodes neuronales. Les prochaines étapes naturelles incluent l'extension à des espaces 3D ou à des robots non-holonomes, ainsi qu'une validation sur des plateformes industrielles réelles.

RecherchePaper
1 source
Détection structurelle en temps réel pour la navigation intérieure par LiDAR 3D avec images en vue aérienne
4arXiv cs.RO 

Détection structurelle en temps réel pour la navigation intérieure par LiDAR 3D avec images en vue aérienne

Des chercheurs ont publié sur arXiv (arXiv:2603.19830v2) un pipeline de perception léger capable de détecter en temps réel les structures d'un environnement intérieur à partir de données LiDAR 3D, sans recourir à un GPU. Le principe : projeter le nuage de points 3D en images Bird's-Eye-View (BEV) 2D, puis appliquer un détecteur sur cette représentation compressée. L'équipe a comparé quatre approches de détection de structures (murs, couloirs, portes) : la transformée de Hough, RANSAC, LSD (Line Segment Detector) et un réseau YOLO-OBB (Oriented Bounding Box). Les expériences ont été conduites sur une plateforme robotique mobile standard équipée d'un single-board computer (SBC) à faible consommation. Résultat : YOLO-OBB est la seule méthode à satisfaire la contrainte temps réel de 10 Hz en bout de chaîne, là où RANSAC dépasse les budgets de latence et LSD génère une fragmentation excessive de segments qui sature le système. Un module de fusion spatiotemporelle stabilise les détections entre frames consécutives. L'intérêt opérationnel est direct pour les intégrateurs de robots mobiles autonomes (AMR) fonctionnant sur du matériel embarqué standard, typiquement des SBC ARM sans accélérateur dédié. Démontrer qu'un détecteur basé YOLO-OBB tient 10 Hz sur ce type de plateforme réduit le coût matériel des solutions de cartographie et navigation indoor, un verrou persistant dans le déploiement à grande échelle d'AMR en entrepôt ou en milieu hospitalier. L'approche BEV contourne également la complexité computationnelle des traitements de nuages de points 3D complets (méthodes de type PointNet, VoxelNet), qui restent prohibitifs hors GPU. La mise à disposition du code source et des modèles pré-entraînés facilite la reproductibilité et l'adaptation industrielle. Ce travail s'inscrit dans un courant de recherche actif visant à rendre la perception robotique robuste accessibles aux plateformes contraintes en ressources, en concurrence directe avec des approches comme les architectures 2D range-image ou les méthodes pillars (PointPillars). Sur le plan de la navigation indoor, il complète des stacks SLAM existants (Cartographer, RTAB-Map) en ajoutant une couche de détection structurelle explicite, utile pour la planification de trajectoires en espaces semi-structurés. Les prochaines étapes logiques incluent la validation sur des scénarios plus denses (open space vs couloirs étroits), ainsi que l'intégration dans des boucles de localisation et cartographie continues, où la stabilité temporelle du module de fusion sera mise à l'épreuve à plus grande échelle.

RecherchePaper
1 source