Aller au contenu principal
AEROS : une architecture mono-agent avec modules de capacités incarnées
RecherchearXiv cs.RO6j

AEROS : une architecture mono-agent avec modules de capacités incarnées

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Des chercheurs ont publié sur arXiv (2604.07039) une architecture logicielle baptisée AEROS, Agent Execution Runtime Operating System, qui propose de modéliser chaque robot comme un unique agent intelligent persistant, dont les capacités sont étendues via des modules installables appelés ECMs (Embodied Capability Modules). Chaque ECM encapsule des compétences exécutables, des modèles et des outils, tandis qu'un runtime à politique séparée gère les contraintes d'exécution et les garanties de sécurité. L'évaluation a été conduite en simulation PyBullet avec un bras manipulateur Franka Panda à 7 degrés de liberté, sur huit types d'expériences couvrant la replanification, la récupération d'échec, l'application de politiques, la généralisation inter-tâches et le hot-swapping d'ECM. Sur 100 essais randomisés par condition, AEROS atteint 100 % de succès sur trois tâches distinctes, contre 92-93 % pour des architectures de type BehaviorTree.CPP et ProgPrompt, et seulement 67-73 % pour les pipelines plats. La couche de politique bloque 100 % des actions invalides sans aucun faux positif.

Ces résultats sont pertinents pour les intégrateurs et décideurs industriels pour deux raisons. D'abord, l'écart de performance face aux pipelines plats (jusqu'à 33 points) illustre le coût concret de l'absence d'architecture cohérente dans les systèmes robotiques actuels. Ensuite, la capacité de hot-swapping, charger des ECMs à la volée sans redémarrage, ouvre la voie à des robots reconfigurables en production selon la tâche, sans intervention matérielle. La couche de politique séparée est également notable : elle fournit des garanties de sécurité systémiques sans imposer de retuning par tâche, ce qui répond à un besoin réel dans les déploiements industriels où la certification de sécurité est un verrou.

Le problème qu'AEROS adresse est structurel : les approches existantes soit couplent les compétences dans des architectures monolithiques rigides, soit les distribuent en multi-agents mal coordonnés, sans modèle cohérent d'identité et d'autorité de contrôle. AEROS emprunte aux systèmes d'exploitation traditionnels le concept de packages installables et l'applique aux agents incarnés. Ses concurrents académiques directs incluent ProgPrompt (CMU, planification via LLM) et les frameworks multi-agents comme AutoGen. Une limite importante à signaler : l'évaluation reste entièrement en simulation PyBullet, aucun déploiement physique n'est rapporté dans la publication. Le sim-to-real gap, problème structurel de la robotique, n'est pas adressé ici, ce qui rend prématurée toute conclusion sur la valeur opérationnelle réelle du système.

Dans nos dossiers

À lire aussi

Évolution supervisée des capacités des agents incarnés : mise à niveau sûre, vérification de compatibilité et retour arrière en temps réel
1arXiv cs.RO 

Évolution supervisée des capacités des agents incarnés : mise à niveau sûre, vérification de compatibilité et retour arrière en temps réel

Une équipe de chercheurs a formalisé dans un preprint arXiv (réf. 2604.08059) un cadre de mise à jour sécurisée pour les modules de capacités d'agents embarqués. Le problème est concret: lorsqu'un robot améliore ses capacités via des mises à jour de modules logiciels, comment garantir que ces déploiements ne violent pas les contraintes de sécurité, les hypothèses d'exécution ou les mécanismes de récupération? Le framework introduit quatre vérifications de compatibilité (interface, politique, comportementale, récupération) organisées en pipeline séquentiel: validation du candidat, évaluation sandbox, déploiement shadow, activation contrôlée, monitoring en ligne et rollback. Sur 6 cycles de mise à jour avec 15 graines aléatoires, une mise à jour naïve atteint 72,9% de succès sur les tâches mais génère 60% d'activations non sécurisées au dernier cycle; le framework gouverné maintient 67,4% de succès avec zéro activation non sécurisée sur l'ensemble des cycles (test de Wilcoxon, p=0,003). Le shadow deployment détecte 40% des régressions invisibles à la sandbox seule, et le rollback réussit dans 79,8% des scénarios de dérive post-activation. Pour les intégrateurs de systèmes robotiques et les décideurs B2B, ce résultat répond à une question stratégique: peut-on industrialiser la mise à jour continue d'un robot en production sans requalification complète du système? La démonstration montre que c'est faisable, la perte de performance étant limitée à 5,5 points de taux de succès en échange d'une garantie de sécurité absolue. La découverte clé porte sur le shadow deployment: 40% des régressions n'apparaissent pas en environnement sandbox, invalidant les workflows de qualification qui s'y arrêtent. Cela pose les bases d'un CI/CD robotique viable, à condition d'inclure une étape shadow en environnement réel. Les travaux antérieurs avaient étudié séparément le packaging modulaire, l'évolution des capacités et la gouvernance à l'exécution, sans les assembler en pipeline cohérent. Cette publication formalise la "governed capability evolution" comme problème de systèmes de premier ordre, directement pertinent pour les architectures à base de VLA (Vision-Language-Action models) qui évoluent rapidement sur des plateformes comme Figure 03, Optimus Gen 3 ou GR00T N2. L'article reste un travail de recherche évalué en simulation, sans déploiement commercial cité; les prochaines étapes attendues sont une validation sur plateformes physiques réelles et une intégration dans des pipelines MLOps robotiques.

RecherchePaper
1 source
HiVLA : un système de manipulation incarnée hiérarchique centré sur l'ancrage visuel
2arXiv cs.RO 

HiVLA : un système de manipulation incarnée hiérarchique centré sur l'ancrage visuel

Des chercheurs ont publié sur arXiv (identifiant 2604.14125) HiVLA, un cadre hiérarchique de manipulation robotique qui découple explicitement la planification sémantique de haut niveau du contrôle moteur de bas niveau dans les systèmes VLA (Vision-Language-Action). La couche haute s'appuie sur un planificateur VLM (Vision-Language Model) chargé de décomposer les tâches et de générer des plans structurés : une instruction de sous-tâche accompagnée d'une bounding box précise localisée visuellement sur l'objet cible. La couche basse traduit ensuite ce plan en actions physiques via un Diffusion Transformer (DiT) à flow-matching, doté d'un mécanisme de cross-attention en cascade original. Ce mécanisme fusionne séquentiellement le contexte global de la scène, des recadrages haute résolution centrés sur l'objet, et la sémantique de compétence, permettant au DiT de se concentrer uniquement sur l'exécution robuste. Les évaluations, conduites en simulation et en environnement réel, montrent que HiVLA surpasse les baselines end-to-end de l'état de l'art, avec des gains particulièrement marqués sur les tâches à longue horizon et la manipulation fine de petits objets dans des scènes encombrées. L'intérêt de cette approche réside dans la résolution d'un compromis bien documenté : le fine-tuning d'un grand modèle de vision-langage sur des données de contrôle robotique dégrade systématiquement les capacités de raisonnement généralisé héritées du modèle de base. En séparant les deux niveaux, HiVLA préserve les capacités zero-shot du VLM tout en permettant d'améliorer le composant moteur de façon indépendante. Pour un intégrateur ou un COO industriel, cela signifie potentiellement pouvoir mettre à jour la politique de bas niveau sans réentraîner le planificateur cognitif, ce qui réduit les coûts de maintenance et d'adaptation à de nouvelles tâches. La performance sur la manipulation fine dans des environnements désordonnés est notable, car c'est précisément le type de scénario qui met en défaut les VLA monolithiques comme RT-2 ou OpenVLA. Les approches VLA end-to-end comme pi-0 de Physical Intelligence, OpenVLA (UC Berkeley), ou GR00T N2 de NVIDIA ont démontré la viabilité du paradigme mais se heurtent au problème du catastrophic forgetting lors du fine-tuning sur des données de contrôle étroites. HiVLA s'inscrit dans une tendance vers des architectures hiérarchiques séparant raisonnement et exécution, direction qu'explorent également NVIDIA avec GR00T N2 et Google DeepMind avec ses travaux RT-X. Il reste cependant un preprint arXiv sans déploiement industriel annoncé ni affiliation commerciale visible dans le document disponible. Les résultats en environnement réel mentionnés dans l'abstract sont encourageants, mais les conditions expérimentales précises (types de tâches, métriques de succès, nombre d'essais) ne sont pas détaillées dans le résumé public, ce qui invite à la prudence avant toute généralisation à des applications industrielles.

RechercheOpinion
1 source
Modélisation du monde centrée sur les événements avec récupération augmentée par mémoire pour la prise de décision en IA incarnée
3arXiv cs.RO 

Modélisation du monde centrée sur les événements avec récupération augmentée par mémoire pour la prise de décision en IA incarnée

Des chercheurs ont publié sur arXiv (identifiant 2604.07392v2) un cadre de modélisation du monde centré sur les événements, couplé à une mémoire augmentée par récupération, pour la prise de décision d'agents autonomes embarqués. Baptisé event-centric world modeling with memory-augmented retrieval, le système représente l'environnement comme un ensemble structuré d'événements sémantiques, encodés dans une représentation latente invariante aux permutations. La décision ne résulte pas d'une inférence neurale directe, mais d'une récupération dans une banque d'expériences antérieures, chaque entrée associant une représentation d'événement à une manœuvre candidate. L'action finale est calculée comme une combinaison pondérée des solutions récupérées. Les expériences ont été conduites sur des scénarios de vol de drones (UAV), où le framework a opéré dans les contraintes temps réel tout en maintenant un comportement interprétable et cohérent. L'intérêt de cette approche tient à sa rupture explicite avec l'apprentissage bout-en-bout (end-to-end), qui domine aujourd'hui la robotique embarquée mais souffre d'un manque d'interprétabilité et d'absence de garanties physiques formelles. En adoptant un raisonnement par cas (case-based reasoning), le système offre une traçabilité directe entre chaque décision et les expériences stockées qui l'ont motivée, propriété essentielle pour les environnements à criticité de sécurité tels que les drones autonomes ou la manipulation industrielle. L'intégration de connaissances physiques dans le processus de récupération réduit également le risque de comportements hors domaine, un défaut récurrent des modèles VLA (Vision-Language-Action) lors du passage en déploiement réel. Cette publication s'inscrit dans le débat actif entre architectures neurales end-to-end telles que Pi-0 de Physical Intelligence, GR00T N2 de NVIDIA ou Helix de Figure AI, et les méthodes hybrides structurées qui conservent une représentation explicite du monde. Le fossé demo-to-reality reste le principal frein aux VLA à grande échelle, et les approches à mémoire structurée visent précisément à combler cet écart en rendant le raisonnement auditable. Le travail demeure à ce stade un résultat de recherche, évalué sur UAV en conditions contrôlées, sans déploiement industriel ni partenariat applicatif annoncés. Les extensions naturelles concerneraient la manipulation physique ou la locomotion humanoïde, ainsi que la validation sur matériel réel en environnements non contrôlés.

RecherchePaper
1 source
Du langage à la logique : une architecture théorique pour la navigation sécurisée fondée sur les modèles VLM
4arXiv cs.RO 

Du langage à la logique : une architecture théorique pour la navigation sécurisée fondée sur les modèles VLM

Des chercheurs ont publié en mai 2026 sur arXiv (arXiv:2605.04327) une architecture théorique visant à intégrer des règles de sécurité en langage naturel dans la navigation autonome de robots opérant en environnements extérieurs non structurés. Le principe central consiste à convertir des consignes humaines informelles en spécifications formelles de Signal Temporal Logic (STL), un formalisme mathématique permettant d'exprimer des contraintes temporelles sur le comportement d'un système. Les règles persistantes liées au terrain sont encodées dans une carte de coûts 2D, tandis que les exigences dynamiques sont surveillées en temps réel sous forme de moniteurs STL. Pour l'interprétation sémantique de la scène, les auteurs proposent l'usage de Vision-Language Models (VLMs) en mode zero-shot, c'est-à-dire sans phase d'entraînement spécifique à l'environnement opérationnel. L'intérêt de cette approche réside dans la tentative de combler deux fossés bien connus du secteur : d'une part, le gouffre entre les instructions opérateur en langage naturel et les contraintes exploitables par un planificateur formel ; d'autre part, le manque de garanties vérifiables dans les systèmes de navigation basés sur l'apprentissage. Pour les intégrateurs et les décideurs B2B actifs dans l'agriculture de précision, la construction ou la logistique extérieure, la promesse est claire : pouvoir exprimer des règles de sécurité terrain sans écrire de code ni annoter de données. Il convient cependant de noter que l'article reste entièrement théorique, les auteurs utilisant eux-mêmes le terme "hypothesize" pour qualifier l'usage des VLMs, sans présenter de résultats expérimentaux ni de validation sur robot réel. Cette publication s'inscrit dans une dynamique plus large où les VLMs sont progressivement intégrés dans des pipelines robotiques complets, comme en témoignent les travaux récents de Physical Intelligence avec Pi-0, ou de NVIDIA avec GR00T N2. L'utilisation de STL pour la navigation n'est pas nouvelle, le formalisme ayant fait ses preuves en conduite autonome et drones, mais son couplage avec des VLMs pour le grounding sémantique constitue une direction de recherche active. Plusieurs groupes, notamment en Europe (dont des équipes liées aux projets de l'ANR et d'Horizon Europe sur la navigation sûre), explorent des pistes similaires. Les prochaines étapes logiques seraient une implémentation sur simulateur puis une validation terrain, étapes absentes de ce premier article d'architecture.

UEDes équipes européennes liées à l'ANR et Horizon Europe travaillent sur des problématiques similaires de navigation sûre, ce qui ancre ce sujet dans la dynamique de recherche continentale, sans impact industriel direct à ce stade.

RecherchePaper
1 source