Aller au contenu principal
L'araignée spatiale renaît : la Chine relance le rêve de NASA d'un robot de construction en orbite
RechercheInteresting Engineering3h

L'araignée spatiale renaît : la Chine relance le rêve de NASA d'un robot de construction en orbite

1 source couvre ce sujet·Source originale ↗·
L'araignée spatiale renaît : la Chine relance le rêve de NASA d'un robot de construction en orbite
▶ Voir sur YouTube

Des chercheurs de l'Institut d'automatisation de Shenyang, dans le nord-est de la Chine, travaillent au développement d'un robot de fabrication orbitale autonome directement inspiré du concept "SpiderFab" de la NASA. Jamais testé en orbite, SpiderFab avait été conçu pour assembler en microgravité des structures trop grandes pour tenir dans une coiffe de lanceur, antennes kilométriques, fermes de panneaux solaires, à partir de bobines de fibre de carbone déroulées in situ, à la manière d'une araignée tissant sa toile. Le programme a été mis en veille par la NASA sans atteindre le stade orbital. Le robot chinois se distingue par deux améliorations techniques clés : il utilise des composites à base de fibre de carbone plutôt que de la fibre pure, mis en forme de tubes creux longiformes à la fois très résistants et très légers. Les assemblages n'utilisent ni boulons ni colle : les pièces sont équipées de joints 3D intégrés à la fabrication, puis soudées par liaison laser pour former des connexions solides et adaptées à l'automatisation. À ce stade, l'équipe a validé le concept en laboratoire terrestre en assemblant une antenne à échelle réduite, mais le système reste en phase de recherche et développement.

L'intérêt stratégique de cette approche est direct : toute structure envoyée dans l'espace aujourd'hui doit être construite sur Terre, conçue pour survivre aux vibrations du lancement, et suffisamment compacte pour entrer dans un lanceur. Ces contraintes fixent un plafond dur sur la taille et la masse de ce qui peut être mis en orbite. Un robot capable de fabriquer des structures directement en orbite à partir de matières premières brutes ferait sauter cette limite physique, ouvrant la voie à des télescopes, des réseaux d'antennes ou des centrales solaires orbitales d'une envergure aujourd'hui impossible. La soudure laser entre composants imprimés, si elle tient ses promesses en environnement radiatif, représente également une rupture par rapport aux assemblages mécaniques classiques, moins fiables en automatisation complète. Pour l'instant, ces résultats restent des preuves de concept terrestres ; il n'existe pas encore de données publiées sur des tests en microgravité simulée ou parabolique.

Le concept SpiderFab avait été développé par la société américaine Tethers Unlimited dans le cadre du programme NIAC (NASA Innovative Advanced Concepts), avant d'être suspendu faute de financement pour la phase de démonstration orbitale. La Chine investit massivement dans les technologies d'assemblage en orbite dans le cadre de ses ambitions pour les stations spatiales de nouvelle génération et les centrales solaires spatiales, un programme sur lequel travaille également l'Agence spatiale européenne et le JAXA. L'équipe de Shenyang devra encore résoudre plusieurs verrous critiques : l'assemblage autonome précis en microgravité réelle, l'alignement sur de grandes distances, et la durabilité à long terme face aux rayonnements et aux cycles thermiques orbitaux. Aucune date de test en orbite n'a été communiquée.

Impact France/UE

L'ESA travaille également sur des technologies d'assemblage orbital similaires, ce qui place l'Europe en situation de compétition technologique indirecte avec la Chine sur les infrastructures spatiales de nouvelle génération.

À lire aussi

Robot Talk, épisode 153 : des robots inspirés de l'origami, avec Chenying Liu
1Robohub 

Robot Talk, épisode 153 : des robots inspirés de l'origami, avec Chenying Liu

Chenying Liu, Junior Research Fellow et Associate Member of Faculty au Department of Engineering Science de l'Université d'Oxford, était l'invitée du 153e épisode du podcast Robot Talk pour présenter ses travaux sur l'intelligence physique incarnée (embodied physical intelligence). Sa recherche explore comment la forme physique d'un robot peut activement contribuer à la perception, au traitement de l'information, à la prise de décision et au mouvement, en s'inspirant notamment des principes géométriques de l'origami. L'épisode ne communique pas de métriques techniques précises, pas de charges utiles, de degrés de liberté ni de résultats expérimentaux chiffrés, ce qui le situe davantage dans la vulgarisation académique que dans l'annonce produit. L'approche d'Oxford que défend Liu représente un contrepoids notable au paradigme dominant du tout-logiciel : plutôt que de déléguer l'intelligence uniquement aux modèles de fondation et aux VLA (Vision-Language-Action models), l'idée est d'intégrer la computation directement dans la géométrie et les matériaux du robot. Cette co-conception mécanique-contrôle promet des systèmes plus robustes et plus efficaces en énergie, particulièrement pertinents pour des environnements non structurés où les modèles sim-to-real peinent encore. Ce courant de recherche, parfois appelé morphological computation ou soft robotics computationnelle, est actif dans plusieurs laboratoires mondiaux, MIT CSAIL, ETH Zurich, EPFL, ainsi qu'en France au CNRS LIRMM et à l'INRIA. Oxford se positionne ici via une chercheuse indépendante dont le programme, encore jeune, n'a pas encore de partenaires industriels publiquement annoncés. La prochaine étape naturelle serait une publication de résultats expérimentaux ou un prototype démontrant le gain d'autonomie promis par cette philosophie de conception.

UELe CNRS LIRMM et l'INRIA sont cités comme acteurs du courant de computation morphologique, mais l'épisode de podcast n'a pas d'impact opérationnel direct sur l'écosystème français.

RecherchePaper
1 source
Démystifier la conception de l'espace d'action pour les politiques de manipulation robotique
2arXiv cs.RO 

Démystifier la conception de l'espace d'action pour les politiques de manipulation robotique

Une étude empirique de grande envergure, publiée sur arXiv (référence 2602.23408), apporte les premières réponses systématiques à une question restée sans réponse rigoureuse dans la communauté de la manipulation robotique : comment concevoir l'espace d'action d'une politique apprise par imitation ? Les chercheurs ont conduit plus de 13 000 déploiements réels sur un robot bimanuel, entraîné et évalué plus de 500 modèles sur quatre scénarios distincts, en examinant deux axes structurants : l'axe temporel (représentations absolues vs. incrémentales, dites "delta") et l'axe spatial (espace articulaire, ou joint-space, vs. espace opérationnel, ou task-space). Le résultat principal est sans ambiguïté : les représentations delta, qui encodent des variations de position plutôt que des positions cibles absolues, améliorent systématiquement les performances d'apprentissage. Sur l'axe spatial, joint-space et task-space révèlent des forces complémentaires : le premier favorise la stabilité du contrôle, le second facilite la généralisation à de nouveaux scénarios. Ces résultats ont une portée directe pour les équipes qui développent des politiques robotiques en production. Jusqu'ici, le choix de l'espace d'action relevait d'heuristiques héritées ou de conventions propres à chaque laboratoire, sans base empirique solide. L'étude montre que ce choix n'est pas accessoire : il conditionne fondamentalement le paysage d'optimisation de l'apprentissage par imitation, bien davantage que ce que supposait la littérature. Pour un intégrateur ou un ingénieur concevant un système de manipulation industrielle, la recommandation est désormais claire : préférer les delta actions par défaut, et arbitrer entre joint-space et task-space selon que la priorité est la stabilité du suivi de trajectoire ou la robustesse face à la variabilité des tâches. Ces conclusions sont directement applicables aux architectures VLA (Vision-Language-Action), qui dominent actuellement la recherche en politiques généralisables. Ce travail intervient dans un contexte où la course à la mise à l'échelle des données et des modèles concentre la majorité des ressources de recherche. Des systèmes comme pi-0 (Physical Intelligence), ACT ou Diffusion Policy ont popularisé l'imitation learning comme voie principale vers la manipulation généraliste, et des acteurs comme Figure AI, 1X ou Apptronik misent sur ces architectures pour leurs déploiements industriels. Pourtant, la conception de l'espace d'action restait guidée par des choix hérités des années 2010, faute d'étude comparative à grande échelle. En comblant ce manque avec une rigueur rare, les auteurs posent une base méthodologique qui devrait informer la prochaine génération de politiques bimanuelle et les benchmarks de comparaison entre systèmes.

RechercheOpinion
1 source
Comment fonctionnent réellement les VLA en environnements ouverts
3arXiv cs.RO 

Comment fonctionnent réellement les VLA en environnements ouverts

Un article de recherche publié sur arXiv (référence 2604.21192) soumet les modèles vision-langage-action (VLA) à une évaluation critique sur le benchmark BEHAVIOR1K (B1K), un protocole simulant des tâches domestiques complexes de longue durée dans des environnements ouverts. Le constat est net : les métriques standards de ces benchmarks, taux de succès ou score partiel, ne mesurent que l'état final des objets manipulés, indépendamment des événements qui y ont conduit. Un robot qui renverse un verre avant de le replacer peut ainsi obtenir le même score qu'un robot qui l'a manipulé sans incident. Ce protocole dit "progress-agnostic" ignore entièrement les comportements dangereux en cours d'exécution. Les chercheurs ont soumis plusieurs VLA de pointe à une analyse multidimensionnelle couvrant robustesse, reproductibilité, violations de sécurité et causes d'échec des tâches. Les implications sont directes pour tout acteur envisageant un déploiement réel. Si les métriques actuelles gonflent artificiellement les performances rapportées, les décisions d'intégration basées sur ces benchmarks reposent sur des bases fragiles. La distinction est capitale entre un modèle qui complète une tâche et un modèle qui la complète de façon sûre et reproductible, deux propriétés que les scores agrégés actuels confondent. Les auteurs proposent de nouveaux protocoles d'évaluation capables de capturer les violations de sécurité, comblant un angle mort majeur de la recherche. Pour un intégrateur ou un décideur industriel, cela signifie que les chiffres de "success rate" publiés par les laboratoires doivent être lus avec prudence, en exigeant explicitement des données de reproductibilité et des métriques comportementales. La course aux VLA s'est accélérée depuis 2024 avec des modèles comme pi0 de Physical Intelligence, GR00T N2 de NVIDIA, ou OpenVLA issu de Stanford et Berkeley. Ces systèmes combinent une fondation vision-langage avec un module d'action, affichant des capacités de généralisation notables en simulation. Ce papier suggère que le fossé simulation-réel est peut-être plus profond qu'estimé : des modèles performants sur B1K pourraient s'avérer moins fiables dès lors qu'on intègre sécurité et consistance comportementale comme critères d'évaluation. Les auteurs appellent la communauté à adopter ces nouveaux protocoles dans les futures éditions du B1K Challenge pour aligner les standards de recherche avec les exigences concrètes du déploiement en environnement ouvert.

RechercheOpinion
1 source
Compréhension neuro-symbolique de la manipulation par chaînes d'événements sémantiques enrichies
4arXiv cs.RO 

Compréhension neuro-symbolique de la manipulation par chaînes d'événements sémantiques enrichies

Des chercheurs présentent eSEC-LAM, un cadre neuro-symbolique conçu pour permettre aux robots opérant dans des environnements humains de comprendre les manipulations d'objets en temps réel. Publié sur arXiv (2604.21053), ce travail s'appuie sur les enriched Semantic Event Chains (eSECs), une représentation symbolique relationnelle qui décrit comment les relations spatiales entre objets évoluent au fil d'une séquence de manipulation. eSEC-LAM augmente ces chaînes classiques avec cinq couches d'information supplémentaires : des prédicats pondérés par un score de confiance, des rôles fonctionnels d'objets (outil, patient, récipient), des priors d'affordance, une abstraction en primitives de mouvement, et des indicateurs de saillance pour l'explicabilité. Le système est évalué sur trois benchmarks vidéo reconnus : EPIC-KITCHENS-100, EPIC-KITCHENS VISOR, et Assembly101, couvrant la reconnaissance d'actions, la prédiction de la prochaine primitive, la robustesse au bruit perceptuel et la cohérence des explications. L'intérêt industriel réside dans la prédiction de la prochaine étape de manipulation, un verrou critique pour les robots collaboratifs et les systèmes d'assistance à l'assemblage. Les résultats montrent qu'eSEC-LAM améliore substantiellement cette capacité par rapport aux baselines symboliques classiques et aux modèles vidéo bout-en-bout, tout en restant plus robuste lorsque la perception est dégradée, un scénario fréquent en usine ou à domicile. L'architecture hybride évite la boîte noire des approches purement neuronales : chaque décision est ancrée dans des preuves relationnelles explicites, ce qui facilite l'audit et la certification, deux exigences croissantes pour les intégrateurs industriels soumis aux normes de sécurité fonctionnelle (ISO 10218, EN 13849). Ce n'est pas un modèle VLA qui apprend tout end-to-end depuis des vidéos brutes : c'est délibérément un système de raisonnement léger, conçu pour tourner sans GPU dédié au moment de l'inférence symbolique. Les eSECs ont émergé dans les laboratoires de robotique cognitive au début des années 2010 comme alternative interprétable aux réseaux de neurones pour la compréhension de gestes, mais ils restaient jusqu'ici principalement descriptifs. eSEC-LAM est une tentative de les transformer en états internes actifs pour un raisonnement décisionnel. Dans le paysage concurrent, les approches VLA comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA) misent sur l'apprentissage massif généraliste ; eSEC-LAM propose une voie opposée, plus modulaire et explicable, potentiellement plus adaptée aux certifications réglementaires ou aux domaines à données rares. Les prochaines étapes logiques seraient une validation sur robot réel en boucle fermée et une intégration avec des couches de planification symbolique (PDDL, HTN), pour aller au-delà de la reconnaissance vers l'exécution autonome de tâches multi-étapes.

UEL'architecture explicable d'eSEC-LAM et sa légèreté à l'inférence facilitent la certification selon les normes européennes de sécurité fonctionnelle (ISO 10218, EN 13849), un avantage concret pour les intégrateurs industriels européens soumis à l'AI Act.

RecherchePaper
1 source