Aller au contenu principal
GMSL et l'écosystème croissant autour des systèmes de vision pour la robotique
InfrastructureRobotics Business Review1h

GMSL et l'écosystème croissant autour des systèmes de vision pour la robotique

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Le standard GMSL (Gigabit Multimedia Serial Link), longtemps cantonné aux systèmes embarqués automobiles comme l'ADAS, s'impose progressivement dans les architectures de vision robotique industrielle. Selon Stephen Liu, responsable robotique chez Advantech, développeur de systèmes embarqués, environ un tiers des projets robotiques qu'il accompagne utilisent ou envisagent déjà des caméras GMSL. La technologie permet de transporter vidéo haute résolution, signaux de contrôle et synchronisation sur un unique câble léger, avec une latence déterministe et une résistance aux interférences électromagnétiques (EMI) significativement améliorée. Analog Devices (ADI), qui dispose d'un écosystème GMSL structuré -- modules caméra pré-validés, adaptateurs, BSP (Board Support Packages) et plateformes compatibles ROS -- positionne cette offre comme un raccourci entre preuve de concept et production de masse. L'adoption dépasse le stade POC : les plateformes AMR (robots mobiles autonomes) de logistique en sont les premiers utilisateurs en production, suivis par les robots humanoïdes, les stations de picking, les applications agricoles et certains usages en santé et construction.

Ce glissement du GMSL vers la robotique répond à une contrainte système qui s'aggrave : à mesure que le nombre de capteurs embarqués augmente (caméras multiples, lidars, IMU), la gestion simultanée de la bande passante, de la latence et de la synchronisation devient le vrai goulot d'étranglement. Un décalage de quelques millisecondes entre les flux capteurs suffit à dégrader la précision de navigation. "Les robots ne font pas que voir, ils doivent décider et agir instantanément", résume Liu, ce qui impose une coordination serrée entre GPU, MPU et système d'exploitation temps réel. Dans des environnements difficiles -- vibrations, poussière, températures extrêmes, câblages longs dans des châssis compacts -- les contraintes d'ESD et d'intégrité de signal rendent les interfaces non-automotive-grade insuffisantes. Le GMSL apporte ici une robustesse éprouvée en conditions réelles, sans surcharger les équipes d'intégration d'une couche de développement bas niveau supplémentaire.

La transition depuis l'automobile n'est pas anodine sur le plan industriel. Les chaînes d'outillage ADAS ont absorbé pendant une décennie les problèmes que la robotique affronte aujourd'hui : multiples caméras synchronisées, longues distances de câblage, tolérance zéro aux pannes de perception. ADI capitalise sur cet héritage pour proposer un écosystème directement transposable, réduisant les délais d'intégration de plusieurs mois à quelques semaines selon Advantech. Les concurrents directs sur ce segment -- notamment les acteurs proposant des solutions basées sur MIPI CSI-2 ou USB3 Vision -- restent pertinents pour les robots opérant en conditions contrôlées, mais peinent à répondre aux contraintes des déploiements extérieurs ou mobiles à longue durée. Les prochaines étapes portent sur l'extension vers les humanoïdes et les plateformes agricoles, segments où la densité sensorielle et la rugosité environnementale font du GMSL un candidat naturel face aux architectures plus conventionnelles.

Impact France/UE

L'adoption du GMSL dans les AMR et robots industriels concerne indirectement les intégrateurs et fabricants européens confrontés aux mêmes contraintes de synchronisation multi-capteurs dans leurs architectures de vision embarquée.

À lire aussi

L'évolution de la connectivité visuelle en robotique : de l'USB et l'Ethernet au GMSL
1Robotics Business Review 

L'évolution de la connectivité visuelle en robotique : de l'USB et l'Ethernet au GMSL

La connectivité vision dans les systèmes robotiques traverse une mutation structurelle. Pendant près d'une décennie, les intégrateurs ont déployé des caméras USB ou Ethernet (protocole GigE Vision) pour alimenter les pipelines de perception des robots. L'USB, bon marché et universellement supporté, suffisait au prototypage, mais ses contraintes de longueur de câble, sa latence non déterministe et sa charge CPU élevée l'ont rendu inadapté aux plateformes complexes. GigE Vision a ensuite étendu la portée et standardisé les interfaces entre fournisseurs, au prix d'un processeur embarqué sur chaque caméra pour packetiser les données, ajoutant latence et complexité réseau. Aujourd'hui, le GMSL (Gigabit Multimedia Serial Link), conçu initialement pour les systèmes caméra de l'automobile, s'impose comme alternative de référence dans les architectures robotiques de nouvelle génération. Ce standard transmet des images non compressées, un contrôle bidirectionnel et l'alimentation électrique sur un unique câble coaxial ou paire torsadée blindée, sur plusieurs mètres de portée, adapté aux plateformes mobiles et articulées. La tendance est claire : les robots modernes embarquent désormais huit capteurs d'images ou plus, répartis sur l'ensemble de la structure, pour des fonctions allant de l'évitement d'obstacles à la manipulation dextre et à l'interaction humain-robot. L'enjeu pour les intégrateurs et décideurs B2B est celui du déterminisme. Les systèmes USB et Ethernet souffrent d'arbitrage et de buffering qui introduisent une variabilité de latence incompatible avec la perception temps réel : boucles de contrôle pour la manipulation, fusion LiDAR-IMU-caméra, vision stéréo synchronisée. GMSL établit une liaison point-à-point dédiée par caméra vers un calculateur centralisé (GPU embarqué ou FPGA), éliminant ces aléas. C'est un changement d'architecture, pas simplement d'interface : le traitement migre vers un noeud central unique plutôt que d'être fragmenté sur chaque caméra. Pour les plateformes qui doivent fusionner données RGB, LiDAR, radar et IMU avec une synchronisation stricte - typiquement les humanoïdes et les AMR de nouvelle génération - ce déterminisme est une exigence fonctionnelle, pas un confort. Le GMSL est issu de l'industrie automobile, où Analog Devices (ADI), principal promoteur de la technologie, l'a développé pour répondre aux exigences des systèmes ADAS et de conduite autonome : robustesse électromagnétique, temps réel, longues portées de câble. Ce transfert technologique auto-vers-robotique s'inscrit dans une dynamique plus large du secteur, où plusieurs standards automotive (Ethernet TSN, MIPI CSI-2) trouvent des débouchés dans les plateformes robotiques. ADI n'est pas seul sur ce créneau : Texas Instruments et NVIDIA proposent leurs propres écosystèmes de connectivité vision pour la robotique, et le choix d'interface reste un facteur de différenciation dans les appels d'offres industriels. À noter que l'article source est publié par ADI lui-même, ce qui invite à lire les métriques comparatives avec le recul habituel vis-à-vis des communications techniques de fournisseurs. La prochaine étape du secteur sera probablement la standardisation : des consortiums comme MIPI Alliance travaillent à harmoniser les interfaces caméra pour faciliter l'interopérabilité entre fournisseurs de capteurs, de calculateurs et intégrateurs robot.

UELes intégrateurs robotiques européens peuvent être amenés à intégrer le GMSL dans leurs cahiers des charges pour les nouvelles plateformes, mais aucun acteur ou réglementation FR/EU n'est directement impliqué.

InfrastructureActu
1 source
La convergence des systèmes de perception, de l'automobile aux robots
2Robotics Business Review 

La convergence des systèmes de perception, de l'automobile aux robots

Une nouvelle génération de robots mobiles - AMR en entrepôts et hôpitaux, drones à longue autonomie, humanoïdes opérant aux côtés des humains - exige désormais des architectures de perception radicalement différentes de celles des décennies précédentes. Là où les capteurs jouaient autrefois un rôle secondaire dans le contrôle, ils constituent aujourd'hui l'entrée principale : la vision haute résolution guide la navigation et la manipulation dextère, le traitement audio multi-microphones permet la localisation sonore et l'interaction vocale, tandis que les capteurs de force et de toucher affinent la préhension et l'équilibre. Ces modalités doivent être synchronisées en temps réel pour alimenter la fusion sensorielle et les boucles de contrôle fermées. Le vrai défi n'est plus de concevoir un capteur isolé ou un modèle autonome, mais de faire fonctionner ensemble, de manière fiable, la perception, la connectivité, le calcul, l'énergie et la sécurité dans des environnements imprévisibles. Ce défi est précisément celui qu'a résolu l'industrie automobile en traitant le véhicule comme un système nerveux distribué : un réseau intégré de capteurs, de processeurs embarqués, de liaisons de communication et d'éléments de contrôle, conçu pour se comporter de façon prévisible dans des conditions réelles. La robotique converge aujourd'hui vers ce même modèle architectural. Pour les intégrateurs et les décideurs industriels, les implications sont concrètes : les données doivent arriver rapidement et de façon déterministe, les capteurs sont physiquement distribués à travers des articulations mobiles ou de longs câbles, et les défaillances doivent être détectables et localisables en temps réel. Les plateformes qui manquent d'observabilité sur l'intégrité des capteurs ou l'état énergétique deviennent de plus en plus fragiles à mesure que leur complexité augmente, rallongeant les cycles de débogage et rendant les déploiements terrain coûteux. A contrario, une architecture conçue avec des diagnostics embarqués et une connectivité déterministe réduit l'incertitude et transforme la sécurité en accélérateur d'itération plutôt qu'en contrainte. Analog Devices (ADI), fabricant de semi-conducteurs à l'interface des marchés automobile et des nouvelles mobilités, signe cette analyse pour promouvoir le transfert de ses technologies automotive-grade vers la robotique et les drones - un parti pris commercial qu'il convient de garder à l'esprit. Ces composants ont été développés sous des contraintes sévères : conditions électriques difficiles, enveloppes thermiques étroites, durées de vie longues et tolérance zéro aux défaillances silencieuses. Des liaisons vision haute bande passante et faible latence permettent, par exemple, la perception multi-caméra sur de grandes structures robotiques, tandis que des réseaux audio déterministes supportent la localisation sonore et l'interaction naturelle avec les humains. ADI se positionne ainsi face à NVIDIA (Jetson, Isaac), Qualcomm et Texas Instruments dans la fourniture de briques de traitement embarqué pour robots et drones. L'article ne cite aucun déploiement en volume ni chiffre de performance concret - il relève davantage du positionnement stratégique que du retour terrain, et les prochaines étapes évoquées restent au stade des perspectives génériques.

InfrastructureActu
1 source
Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique
3Pandaily 

Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique

Le 17 avril 2026, Hesai Technology (NASDAQ: HSAI, HKEX: 2525) a tenu son Technology Open Day annuel pour dévoiler le Picasso SPAD-SoC, présenté comme le premier chip LiDAR 6D full-color au monde. Ce circuit intègre à la fois la détection couleur RGB et la mesure de distance par temps de vol (TOF) au niveau pixel, générant directement des nuages de points colorés sans post-traitement. Le LiDAR traditionnel se limite aux trois dimensions spatiales XYZ ; le Picasso ajoute la teinte (RGB), portant à six les dimensions de perception simultanée. Son efficacité de détection photonique (PDE) dépasse 40 %, ce qui permet de détecter des objets plus lointains et de mieux performer en faible luminosité. Ce chip alimente la série ETX, plateforme LiDAR full-color dépassant 1 000 lignes, disponible en configurations 1 080, 2 160 et 4 320 lignes. En version haute résolution, le ETX affiche une portée jusqu'à 600 mètres, 400 mètres à 10 % de réflectivité, et est capable d'identifier une barrière de chantier à 300 mètres, un petit animal à 280 mètres, ou un bloc de bois à 150 mètres. La mise en production de masse est prévue pour le second semestre 2026, avec un déploiement sur des modèles phares attendu entre 2027 et 2028. L'annonce repositionne Hesai sur un marché en pleine redéfinition : le passage de la voiture autonome de niveau 2+ vers le L3 exige que le LiDAR passe du statut de composant optionnel à celui de système de sécurité critique. Les architectures véhicules basculent vers des configurations multi-LiDAR (typiquement 3 à 6 capteurs pour une couverture 360°), ce qui démultiplie les volumes par véhicule. Le fait que Hesai soit aujourd'hui le seul fabricant de LiDAR à développer en interne l'intégralité de ses sept composants clés, lasers, détecteurs, drivers, TIA, ADC, DSP et contrôleurs, lui confère une autonomie verticale rare dans un secteur très dépendant des fournisseurs asiatiques de semi-conducteurs. Avec 21 puces certifiées AEC-Q, 230 millions d'unités livrées cumulées et des commandes constructeurs dépassant les 6 millions d'unités pour les seuls produits basés sur le Fermi C500 (lancé en novembre 2025 sur architecture RISC-V), Hesai présente des métriques de commercialisation réels, pas seulement des démonstrations de laboratoire. Fondée à Shanghai, Hesai a construit son écosystème chip en cinq générations de R&D. La dénomination "Picasso", référence au peintre cubiste et à sa maîtrise de la représentation multidimensionnelle, marque symboliquement le pivot stratégique de l'entreprise vers ce qu'elle appelle l'"intelligence spatiale", matérialisé par le nouveau produit Kosmo (hardware IA spatial) et une direction inédite autour de modules d'alimentation pour la robotique. Sur ce dernier segment, Hesai entre en compétition directe avec des acteurs comme Ouster (désormais Ouster-Velodyne fusionné avec Sense Photonics), Luminar, ou encore RoboSense, qui ciblent tous la robotique humanoïde et les AMR industriels. Hesai prévoit que ses livraisons cumulées dépasseront 300 millions d'unités d'ici fin 2026. Les prochaines étapes attendues concernent les homologations L3 par les constructeurs partenaires et les premières intégrations Kosmo dans des environnements de test physique AI, mais aucun client ni calendrier précis n'a été communiqué sur ces deux points.

InfrastructureActu
1 source
Kairos : un système de déploiement extensible pour l'IA physique
4arXiv cs.RO 

Kairos : un système de déploiement extensible pour l'IA physique

Une équipe de chercheurs publie sur arXiv (référence 2605.11381, mai 2025) les spécifications de Kairos, un système d'inférence conçu pour les flottes de robots pilotées par des modèles de fondation. Kairos se positionne comme le premier système de serving multi-robot à intégrer nativement la boucle generate-execute, soit l'enchaînement asynchrone entre les phases d'inférence et d'exécution motrice propre à l'IA physique. Sur un ensemble de modèles et de plateformes robotiques, le système annonce une réduction de la latence bout-en-bout de 31,8 à 66,5 % par rapport aux pratiques de serving issues du monde de l'IA digitale, avec des gains qui s'accroissent avec la taille de la flotte déployée. L'argument central des auteurs tient à une inadéquation structurelle. Les systèmes actuels comme vLLM, TensorRT-LLM ou Triton ont été conçus pour les LLM textuels : ils traitent une requête jusqu'à complétion, sans état intermédiaire. L'IA physique fonctionne différemment : le modèle génère des blocs d'actions (action chunks) à chaque round d'inférence, le robot commence à exécuter pendant que le bloc suivant est calculé, et plusieurs cycles se succèdent sur une même tâche. Cette asynchronicité, ignorée par les serveurs digitaux classiques, crée un goulot d'étranglement critique pour les flottes industrielles. Si les chiffres se confirment en conditions réelles, les intégrateurs y gagneraient des cycles de contrôle plus courts et une capacité de scaling horizontal sans surcoût infrastructure proportionnel. Le contexte explique l'urgence de cette contribution. Depuis 2024, les modèles de fondation pour robots prolifèrent : Pi-0 de Physical Intelligence, GR00T N2 de NVIDIA, Helix de Figure AI. Ces VLA (Vision-Language-Action) ont franchi des seuils de généralisation inédits, mais l'infrastructure de déploiement n'a pas suivi le même rythme. Kairos tente de combler ce fossé côté serving. Il s'agit néanmoins d'un preprint non revu par les pairs : les benchmarks ne sont pas détaillés dans l'abstract, les modèles et robots de test ne sont pas nommés, et aucun déploiement en production n'est déclaré. Les métriques annoncées méritent donc une lecture prudente en attendant une validation expérimentale indépendante.

InfrastructureOpinion
1 source