Aller au contenu principal
Contrôle de densité multi-robots sûr et économe en énergie par optimisation sous contraintes EDP pour une autonomie longue durée
RecherchearXiv cs.RO22h

Contrôle de densité multi-robots sûr et économe en énergie par optimisation sous contraintes EDP pour une autonomie longue durée

1 source couvre ce sujet·Source originale ↗·

Une équipe de chercheurs a publié le 22 avril 2026 (arXiv:2604.15524) un framework de contrôle de densité pour flottes de robots mobiles, conçu pour garantir simultanément la sécurité spatiale et la durabilité énergétique sur de longues durées d'autonomie. Le système encode le mouvement stochastique de chaque robot via l'équation de Fokker-Planck, une EDP (équation aux dérivées partielles) qui opère au niveau de la densité de population plutôt que robot par robot. Des fonctions de Lyapunov et des fonctions de barrière de contrôle (CBF) sont intégrées à cette EDP pour assurer le suivi d'une densité cible, l'évitement d'obstacles, et la suffisance énergétique sur plusieurs cycles de recharge. Le tout se résout comme un programme quadratique, ce qui permet une exécution en boucle fermée en temps réel.

L'intérêt industriel est réel pour les déploiements AMR à grande échelle : gérer une flotte non plus comme une somme d'agents indépendants mais comme un champ de densité réduit la charge de calcul et offre des garanties formelles de sécurité collective. La prise en compte explicite des incertitudes de localisation et de mouvement, ainsi que des contraintes de recharge, répond à deux points de friction majeurs dans les déploiements logistiques longue durée. Les résultats sont toutefois issus de simulations étendues et d'une expérience multi-robot dont l'échelle n'est pas précisée dans le résumé, ce qui limite pour l'instant la portée des conclusions.

Ce travail s'inscrit dans une tendance de fond qui cherche à étendre les méthodes formelles de contrôle (CBF, CLF) aux systèmes multi-agents à grande échelle, un terrain où des groupes comme le MIT CSAIL, Georgia Tech ou l'INRIA (côté européen) sont actifs. Les approches EDP pour flottes robotiques restent peu déployées industriellement malgré leur maturité théorique. Les prochaines étapes naturelles seraient une validation sur flottes réelles de taille significative, ainsi qu'une intégration dans des middlewares ROS 2 pour tester la robustesse hors laboratoire.

À lire aussi

Entraîner des Transformers pour résoudre le taux d'échec de 95 % des essais cliniques contre le cancer : Ron Alfa et Daniel Bear, Noetik
1Latent Space 

Entraîner des Transformers pour résoudre le taux d'échec de 95 % des essais cliniques contre le cancer : Ron Alfa et Daniel Bear, Noetik

La startup Noetik, cofondée par Ron Alfa et Daniel Bear, vient de signer un accord de 50 millions de dollars avec le géant pharmaceutique GSK pour sa technologie d'intelligence artificielle appliquée à l'oncologie. Au cœur de cet accord se trouve TARIO-2, un transformer autorégressif entraîné sur l'un des plus grands ensembles de données de transcriptomique spatiale tumorale au monde. Ce modèle est capable de prédire une carte génomique d'environ 19 000 gènes à partir d'une simple biopsie H&E colorée, l'examen histologique standard que reçoit déjà chaque patient atteint de cancer. L'accord avec GSK comprend également un contrat de licence à long terme aux termes non divulgués, ce qui représente un engagement envers la plateforme logicielle de Noetik plutôt que vers un médicament spécifique, un modèle rare dans le secteur biotech. Le problème que Noetik tente de résoudre est brutal : 95 % des traitements contre le cancer échouent lors des essais cliniques, engloutissant entre 20 et 30 milliards de dollars par an en dépenses mondiales de recherche. L'hypothèse centrale de Ron Alfa est que beaucoup de ces traitements fonctionnent réellement, mais qu'ils sont testés sur les mauvais patients. Le cancer n'est pas une seule maladie mais potentiellement des milliers de pathologies distinctes, chacune avec sa propre biologie tumorale. Si l'on pouvait identifier avec précision quels patients portent quelles tumeurs et lesquelles répondront à quels traitements, les taux de succès pourraient augmenter radicalement, avec des thérapies qui existent déjà, comme les inhibiteurs de points de contrôle immunitaires Keytruda et Opdivo, les thérapies CAR-T ou les conjugués anticorps-médicament comme le Trastuzumab. La transcriptomique spatiale complète est la méthode la plus précise pour lire une tumeur, mais elle est quasiment inexistante en soins standards : TARIO-2 permet désormais d'en simuler les résultats à partir d'examens déjà réalisés. Noetik a passé près de deux ans à constituer une base de données massive, acquérant des milliers de tumeurs humaines réelles avec des ensembles de données multimodaux. Cette approche tranche avec la majorité des initiatives IA en biotechnologie, qui se concentrent sur la découverte de nouvelles molécules et finissent généralement par transformer les éditeurs d'outils en laboratoires pharmaceutiques. L'accord GSK, lui, est un contrat de licence logicielle pur, signalant un changement de posture de la part des grands groupes pharma, de plus en plus prêts à payer pour des plateformes d'analyse plutôt que pour des candidats médicaments. Dans un contexte où des acteurs comme Boltz ou Isomorphic Labs gagnent également en visibilité, l'appétit de l'industrie pour les outils IA en développement thérapeutique semble enfin atteindre un point de bascule.

UELe groupe pharmaceutique britannique GSK, acteur majeur en Europe, adopte une plateforme IA pour affiner la sélection des patients en oncologie, ce qui pourrait accélérer et améliorer les essais cliniques menés sur le continent.

💬 95 % d'échec en essais cliniques, pas parce que les traitements sont nuls, mais parce qu'on les teste sur les mauvais patients, c'est le genre de problème qu'on sait depuis longtemps et qu'on fait semblant de ne pas voir. Ce qui m'intéresse chez Noetik, c'est que le deal avec GSK est un contrat de licence logicielle, pas un rachat de molécule : les pharmas commencent vraiment à payer pour des outils d'analyse, c'est un vrai signal. Reste à voir si ça tient à l'échelle des essais multi-sites, mais sur le papier, c'est l'une des applications IA en bio les plus solides que j'ai vues depuis un moment.

RecherchePaper
1 source
De nouveaux robots fourmis travaillent comme de vrais insectes pour construire et démonter de façon autonome
2Interesting Engineering 

De nouveaux robots fourmis travaillent comme de vrais insectes pour construire et démonter de façon autonome

Des chercheurs de la Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) ont publié dans la revue PRX Life une étude décrivant une flotte de robots appelés "RAnts" (Robotic Ants), capables de construire et démanteler des structures de manière autonome, sans plan directeur ni contrôleur central. Ces agents physiques suivent un ensemble minimal de règles locales : détecter un gradient lumineux, transporter des blocs, et les déposer lorsqu'un seuil d'intensité est atteint. Pour remplacer les phéromones chimiques des fourmis biologiques, l'équipe du Professeur L. Mahadevan a introduit le concept de "photormones" : des champs lumineux qui jouent le même rôle de signal environnemental, permettant à chaque robot de modifier son environnement et de réagir aux modifications effectuées par ses congénères. Ce mécanisme s'appuie sur le principe biologique de stigmergie. Le basculement entre mode construction et mode démolition ne nécessite que l'ajustement de deux paramètres : l'intensité du comportement de suivi lumineux et le seuil de dépôt ou de ramassage des blocs. L'intérêt industriel de cette approche réside dans sa robustesse intrinsèque. Un système décentralisé n'a pas de point de défaillance unique : si un agent tombe en panne, le reste de l'essaim continue d'opérer. Pour les intégrateurs et les décideurs B2B, cela pose une alternative crédible aux architectures de coordination centralisées, souvent coûteuses à maintenir et fragiles en environnements non structurés. Le concept d'"exbodied intelligence" proposé par Mahadevan est théoriquement significatif : il déplace le centre de gravité de l'intelligence hors du hardware individuel, vers l'interaction continue entre les agents et leur environnement évolutif. Cela contredit directement la tendance dominante en IA, qui mise sur des modèles toujours plus grands et des processeurs toujours plus puissants. Ici, la complexité émergente est obtenue à coût computationnel minimal. Les résultats semblent solides sur le plan des principes, mais l'article ne précise pas les dimensions des robots, leur payload, leur vitesse de cycle, ni les volumes de blocs traités, ce qui limite pour l'instant l'évaluation de leur transposabilité industrielle réelle. La robotique en essaim n'est pas un domaine nouveau : des travaux pionniers comme le projet Kilobot au MIT ou les recherches de Marco Dorigo (Université Libre de Bruxelles) sur les algorithmes de colonie de fourmis ont posé les bases théoriques il y a plus d'une décennie. Ce qui distingue les RAnts est l'utilisation d'un support physique de communication (la lumière) plutôt que d'une infrastructure de communication numérique externe, ce qui simplifie le déploiement en environnements contraints. Les applications envisagées par l'équipe incluent la construction autonome en zones dangereuses, l'exploration planétaire, et la modélisation du comportement animal. Ces cas d'usage restent à ce stade prospectifs : aucun pilote industriel ni partenariat de déploiement n'est annoncé. La prochaine étape logique serait de démontrer la scalabilité du système avec des essaims de plusieurs dizaines d'unités dans des environnements 3D non contrôlés, condition nécessaire avant toute adoption par des acteurs comme les agences spatiales ou le secteur de la construction en milieux extrêmes.

UELes travaux de Marco Dorigo (ULB, Bruxelles) sur les algorithmes de colonie de fourmis constituent le socle théorique de ce domaine, mais cette étude Harvard n'implique pas directement d'acteurs européens ni de déploiement en Europe.

RecherchePaper
1 source
Import AI 454 : automatiser la recherche sur l'alignement, étude de sécurité d'un modèle chinois, HiFloat4
3Import AI 

Import AI 454 : automatiser la recherche sur l'alignement, étude de sécurité d'un modèle chinois, HiFloat4

Des chercheurs de Huawei ont publié une étude démontrant la supériorité de HiFloat4, leur format de précision 4 bits propriétaire, face à MXFP4, le standard ouvert développé par l'Open Compute Project. Les tests ont été conduits sur des puces Ascend de Huawei avec trois architectures de modèles : OpenPangu-1B, Llama3-8B et Qwen3-MoE-30B. Les résultats sont clairs : HiFloat4 atteint une erreur relative d'environ 1,0 % par rapport à une baseline BF16 pleine précision, contre 1,5 % pour MXFP4. Fait notable, cet avantage se creuse à mesure que les modèles grossissent. HiFloat4 n'a besoin que d'une seule technique de stabilisation (RHT) pour atteindre ce niveau, là où MXFP4 exige trois mécanismes combinés. Par ailleurs, des chercheurs du programme Anthropic Fellows ont publié une étude montrant que des agents Claude sont capables d'automatiser la recherche en sécurité IA : ces agents proposent des idées, mènent des expériences et itèrent de façon autonome sur un problème ouvert, en l'occurrence la supervision "weak-to-strong", soit la capacité d'un modèle moins puissant à superviser efficacement un modèle plus capable. Résultat : les agents ont surpassé deux chercheurs humains qui avaient pourtant travaillé sept jours sur le même problème. Ces deux avancées ont des implications concrètes et distinctes. Côté Huawei, disposer d'un format de précision réduite plus efficace signifie tirer davantage de performance des puces Ascend sans augmenter la consommation électrique, un enjeu critique pour l'entraînement et l'inférence à grande échelle. Pour l'industrie, cela confirme qu'une alternative sérieuse aux formats occidentaux existe et peut fonctionner sur un écosystème matériel entièrement indépendant. Côté Anthropic, la démonstration que Claude peut conduire de la recherche en alignement de manière autonome est un signal précoce mais significatif : si des agents IA peuvent progresser sur les problèmes de sécurité plus vite que des humains, cela ouvre la voie à une accélération massive de ce champ de recherche, encore largement sous-doté face à la vitesse de développement des capacités. Le format HiFloat4 s'inscrit dans la continuité de HiFloat8, présenté précédemment, et reflète une tendance de fond chez les acteurs chinois du hardware : face aux restrictions américaines d'exportation qui coupent la Chine de l'accès aux puces Nvidia H100 en volume suffisant, Huawei et ses pairs investissent massivement dans l'optimisation logicielle et les formats de données propriétaires pour compenser ce déficit. C'est une réponse structurelle aux sanctions, pas un simple exercice académique. Du côté d'Anthropic, l'automatisation de la recherche en alignement répond à une urgence : le rythme de progression des capacités des LLMs dépasse celui des travaux de sécurité, et si des agents peuvent combler cet écart, ils pourraient devenir un outil central dans la course à rendre l'IA plus fiable avant qu'elle ne devienne incontrôlable.

UEL'émergence de HiFloat4 comme alternative propriétaire aux formats ouverts (MXFP4) illustre la fragmentation des standards matériels IA, un enjeu stratégique pour les entreprises européennes qui devront naviguer entre écosystèmes incompatibles dans leurs choix d'infrastructure.

RecherchePaper
1 source
Calibration main-oeil continue pour la manipulation robotique en environnement ouvert
4arXiv cs.RO 

Calibration main-oeil continue pour la manipulation robotique en environnement ouvert

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.15814) un framework d'étalonnage main-oeil continu (continual hand-eye calibration) destiné aux robots manipulateurs déployés dans des environnements ouverts et changeants. Le problème adressé est précis : les modèles de calibration basés sur le deep learning perdent leur précision sur les scènes précédemment apprises dès qu'ils s'adaptent à un nouvel environnement, un phénomène connu sous le nom d'oubli catastrophique (catastrophic forgetting). Le framework proposé repose sur deux composants distincts. Le premier, SARS (Spatial-Aware Replay Strategy), construit un buffer de rejeu géométriquement uniforme qui couvre l'espace de poses de chaque scène sans redondance, en sélectionnant les points de vue les plus informatifs plutôt que les frames adjacentes. Le second, SPDD (Structure-Preserving Dual Distillation), décompose la connaissance de localisation en deux niveaux, la structure grossière de la scène et la précision fine de pose, puis applique une distillation séparée pour préserver les deux dimensions lors des adaptations successives. Les expériences sur plusieurs datasets publics confirment que le modèle maintient la précision sur les scènes passées tout en s'adaptant aux nouvelles. L'enjeu industriel est réel : un bras manipulateur recalibré pour une nouvelle cellule de production ne devrait pas perdre sa précision sur les postes précédents. C'est le problème quotidien des intégrateurs qui déploient des robots dans des lignes flexibles ou multi-produits. La plupart des approches actuelles imposent soit un recalibrage complet à chaque changement de scène, soit acceptent une dégradation progressive des performances sur les configurations antérieures. Ce travail propose une voie intermédiaire via l'apprentissage continu structuré, sans recourir à un replay naïf qui ne suffit pas à enrayer l'oubli. L'approche par distillation duale est notamment pertinente car elle distingue deux types d'erreur, positionnement global et précision locale, ce que les méthodes monolithiques ne font pas. Ce travail s'inscrit dans un champ de recherche en forte activité depuis 2022, où la robustesse de la calibration visuelle en conditions réelles est identifiée comme l'un des goulots d'étranglement pour le passage à l'échelle des manipulateurs autonomes. La localisation visuelle pour la calibration main-oeil emprunte aux techniques de Visual Place Recognition (VPR) et de relocalisation utilisées en navigation mobile, mais les contraintes de précision sous-millimétrique propres à la manipulation y ajoutent une difficulté spécifique. Parmi les acteurs qui travaillent sur des problèmes adjacents figurent des équipes comme Physical Intelligence (pi) avec Pi-0, ou des laboratoires comme le Stanford AI Lab et ETH Zurich sur la sim-to-real calibration. En France, des acteurs comme Enchanted Tools et Pollen Robotics, qui développent des plateformes d'interaction physique, sont directement concernés par ce type de verrou. La prochaine étape naturelle pour ce framework serait une validation sur des données industrielles réelles et une intégration dans des pipelines de déploiement multi-cellules, que les auteurs n'ont pas encore annoncée.

UEEnchanted Tools et Pollen Robotics, qui développent des plateformes de manipulation physique en France, sont directement concernés par ce verrou de calibration continue, susceptible de réduire les coûts de redéploiement en production flexible.

RecherchePaper
1 source