Aller au contenu principal
QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit
InfrastructureThe Robot Report4j

QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

QNX, la division logicielle temps-réel de BlackBerry Ltd., sera présente au Robotics Summit & Expo les 27 et 28 mai 2025 à Boston, avec trois démonstrations interactives et le lancement d'une étude de marché inédite. Sur le stand, la société présentera un bras robotique d'entrée de gamme capable de détecter et imiter les gestes humains pour saisir des objets, en s'appuyant sur son programme QNX Everywhere qui offre un accès gratuit au logiciel pour le prototypage. Un second démonstrateur simule un environnement de "Digital Factory Automation" : un bras industriel piloté par QNX OS fusionne données lidar et vision pour détecter et éviter les obstacles en temps réel, avec réponse déterministe immédiate dès qu'un objet ou une personne entre dans son périmètre. Le troisième poste, tournant sur hardware Intel et NVIDIA, exploite la détection de pose par IA pour répliquer les mouvements d'un visiteur sur un avatar à l'écran, ciblant explicitement les plateformes utilisées dans les robots humanoïdes. En parallèle, QNX dévoilera son "Inside the Robot: Architecture Benchmark Report", une étude basée sur 1 000 développeurs en robotique à l'échelle mondiale, qui cartographie les freins à l'adoption, les écarts entre ambitions système et capacités réelles, et les tendances du secteur. John Wall, président de QNX, participera au keynote d'ouverture "Building the Next Era of Robot Autonomy" aux côtés de représentants d'Amazon Robotics, Locus Robotics et Universal Robots.

La participation de QNX à ce salon illustre une tension structurelle du marché : les équipes d'IA embarquée savent entraîner des modèles, mais peinent à garantir le comportement déterministe requis dès lors que ces modèles pilotent des actionneurs physiques en environnement humain. QNX positionne son RTOS (Real-Time Operating System) comme la couche d'exécution qui traduit les décisions d'un VLA (Vision-Language-Action model) ou d'un module de pose detection en commandes moteur à latence bornée et prévisible. Le benchmark report est potentiellement plus significatif que les démos : avec 1 000 répondants développeurs, il devrait objectiver les vrais goulots d'étranglement du cycle sim-to-real, là où la majorité des communications sectorielles restent des annonces produit sans données comparatives. Pour un COO industriel ou un intégrateur, la question clé n'est pas "est-ce que le bras évite les obstacles en démo" mais "quel est le taux de défaillance certifiable en production", ce que l'étude prétend adresser.

QNX existe depuis 1980 et son RTOS est historiquement déployé dans l'automobile (ADAS, infotainment), le médical et l'aérospatiale, des secteurs où la certification fonctionnelle (ISO 26262, IEC 61508) est non-négociable. L'entrée en robotique collaborative et humanoïde représente une extension logique à mesure que ces systèmes quittent les cages industrielles pour les entrepôts et espaces partagés. Sur ce terrain, QNX affronte Wind River (VxWorks), ROS 2 avec son middleware DDS pour le temps-réel souple, et des stacks propriétaires comme ceux qu'embarquent Boston Dynamics ou Figure AI. Le programme QNX Everywhere, qui ouvre l'accès gratuit pour le prototypage, est une réponse directe à l'adoption massive de ROS dans les labs universitaires et startups. Les suites concrètes à surveiller : la publication du benchmark report lors du salon, et d'éventuelles annonces de partenariats OEM avec des fabricants de bras collaboratifs ou de plateformes humanoïdes dans les mois suivants.

Dans nos dossiers

À lire aussi

Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique
1Pandaily 

Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique

Le 17 avril 2026, Hesai Technology (NASDAQ: HSAI, HKEX: 2525) a tenu son Technology Open Day annuel pour dévoiler le Picasso SPAD-SoC, présenté comme le premier chip LiDAR 6D full-color au monde. Ce circuit intègre à la fois la détection couleur RGB et la mesure de distance par temps de vol (TOF) au niveau pixel, générant directement des nuages de points colorés sans post-traitement. Le LiDAR traditionnel se limite aux trois dimensions spatiales XYZ ; le Picasso ajoute la teinte (RGB), portant à six les dimensions de perception simultanée. Son efficacité de détection photonique (PDE) dépasse 40 %, ce qui permet de détecter des objets plus lointains et de mieux performer en faible luminosité. Ce chip alimente la série ETX, plateforme LiDAR full-color dépassant 1 000 lignes, disponible en configurations 1 080, 2 160 et 4 320 lignes. En version haute résolution, le ETX affiche une portée jusqu'à 600 mètres, 400 mètres à 10 % de réflectivité, et est capable d'identifier une barrière de chantier à 300 mètres, un petit animal à 280 mètres, ou un bloc de bois à 150 mètres. La mise en production de masse est prévue pour le second semestre 2026, avec un déploiement sur des modèles phares attendu entre 2027 et 2028. L'annonce repositionne Hesai sur un marché en pleine redéfinition : le passage de la voiture autonome de niveau 2+ vers le L3 exige que le LiDAR passe du statut de composant optionnel à celui de système de sécurité critique. Les architectures véhicules basculent vers des configurations multi-LiDAR (typiquement 3 à 6 capteurs pour une couverture 360°), ce qui démultiplie les volumes par véhicule. Le fait que Hesai soit aujourd'hui le seul fabricant de LiDAR à développer en interne l'intégralité de ses sept composants clés, lasers, détecteurs, drivers, TIA, ADC, DSP et contrôleurs, lui confère une autonomie verticale rare dans un secteur très dépendant des fournisseurs asiatiques de semi-conducteurs. Avec 21 puces certifiées AEC-Q, 230 millions d'unités livrées cumulées et des commandes constructeurs dépassant les 6 millions d'unités pour les seuls produits basés sur le Fermi C500 (lancé en novembre 2025 sur architecture RISC-V), Hesai présente des métriques de commercialisation réels, pas seulement des démonstrations de laboratoire. Fondée à Shanghai, Hesai a construit son écosystème chip en cinq générations de R&D. La dénomination "Picasso", référence au peintre cubiste et à sa maîtrise de la représentation multidimensionnelle, marque symboliquement le pivot stratégique de l'entreprise vers ce qu'elle appelle l'"intelligence spatiale", matérialisé par le nouveau produit Kosmo (hardware IA spatial) et une direction inédite autour de modules d'alimentation pour la robotique. Sur ce dernier segment, Hesai entre en compétition directe avec des acteurs comme Ouster (désormais Ouster-Velodyne fusionné avec Sense Photonics), Luminar, ou encore RoboSense, qui ciblent tous la robotique humanoïde et les AMR industriels. Hesai prévoit que ses livraisons cumulées dépasseront 300 millions d'unités d'ici fin 2026. Les prochaines étapes attendues concernent les homologations L3 par les constructeurs partenaires et les premières intégrations Kosmo dans des environnements de test physique AI, mais aucun client ni calendrier précis n'a été communiqué sur ces deux points.

InfrastructureActu
1 source
ORICF : un framework ouvert pour l'inférence et le contrôle en robotique
2arXiv cs.RO 

ORICF : un framework ouvert pour l'inférence et le contrôle en robotique

Des chercheurs ont publié le 12 mai 2026 sur arXiv (identifiant 2605.09656v1) un framework open source baptisé ORICF (Open Robotics Inference and Control Framework), conçu pour réduire le coût computationnel du déploiement de modèles d'IA sur robots mobiles. La plateforme, modulaire et agnostique aux modèles, permet de composer des pipelines d'inférence multimodaux via de simples fichiers de configuration YAML, sans modification du code source. Son mécanisme central, l'edge offloading, consiste à délocaliser les tâches d'inférence vers des machines externes proches du robot plutôt que de les exécuter en embarqué. Validé sur un robot mobile équipé de ROS2, le système combinait reconnaissance automatique de la parole (ASR), un grand modèle de langage (LLM) et un réseau de neurones convolutif (CNN) pour répondre à des questions orales sur les personnes détectées par sa caméra. Par rapport à une exécution entièrement embarquée, ORICF réduit l'utilisation des ressources de calcul côté robot de 83,16% et la consommation énergétique estimée de 65,8%, tout en préservant la modularité et la reproductibilité du pipeline. Ces résultats adressent l'un des freins les plus concrets au déploiement de modèles fondamentaux sur robots de service ou industriels : la contrainte matérielle embarquée. En déchargeant dynamiquement l'inférence sur des serveurs edge locaux ou des postes de travail voisins, ORICF rend envisageable l'utilisation de modèles lourds (LLM, VLM) sur plateformes à faible puissance de calcul. La spécification déclarative YAML simplifie également les changements de modèles ou de cibles matérielles, avantage concret pour les équipes intégration qui gèrent plusieurs configurations de déploiement. À noter cependant : la validation ne porte que sur un prototype unique en laboratoire, et les métriques de latence de bout en bout en conditions réelles ne sont pas détaillées dans le preprint, ce qui limite l'extrapolation aux environnements industriels. ORICF s'inscrit dans un mouvement plus large d'outillage de la robotique embarquée avec des modèles fondamentaux, alors que ROS2 s'est imposé comme infrastructure standard pour les robots de recherche et de plus en plus industriels. Plusieurs approches concurrentes ciblent le même problème : Isaac ROS de NVIDIA propose une pile d'inférence optimisée pour hardware Jetson, tandis que des acteurs comme Hailo adressent le déploiement sur puces dédiées. Le preprint ne cite pas d'affiliation universitaire ni d'entreprise sponsor visible, ce qui reste un signal à surveiller pour évaluer la maturité et la continuité du projet. Les prochaines étapes logiques seraient une validation sur des plateformes robotiques hétérogènes et une évaluation de latence en conditions opérationnelles réelles.

InfrastructureOpinion
1 source
ROBOTICS SUMMIT & EXPO 2026, Boston au cœur de la nouvelle économie robotique
3FrenchWeb 

ROBOTICS SUMMIT & EXPO 2026, Boston au cœur de la nouvelle économie robotique

Le Robotics Summit & Expo 2026 se tiendra les 27 et 28 mai à Boston, confirmant la place de la ville comme capitale mondiale de la robotique. L'événement réunit cette année des acteurs issus de secteurs historiquement cloisonnés : robotique industrielle, recherche académique et automatisation logistique. Ce rassemblement annuel, devenu l'un des rendez-vous incontournables du secteur, illustre une transformation structurelle profonde de l'industrie, où les frontières entre ces univers distincts s'effacent progressivement au profit d'un écosystème intégré. Cette convergence a des implications concrètes pour les entreprises et les investisseurs. Un bras robotique industriel peut désormais intégrer des algorithmes issus de la recherche universitaire et être déployé dans un entrepôt logistique, des silos qui ne communiquaient pas il y a cinq ans. Pour les industriels, cela signifie des cycles d'innovation raccourcis et des opportunités de financement croisé entre acteurs publics, privés et académiques. Boston, avec son dense tissu de startups, de laboratoires universitaires (MIT, Harvard, Boston Dynamics) et de fonds spécialisés, cristallise mieux que nulle part ailleurs cette dynamique. La ville du Massachusetts s'est imposée comme référence mondiale en matière de robotique en grande partie grâce à l'écosystème né autour de Boston Dynamics et des programmes de recherche du MIT. Le Robotics Summit s'inscrit dans ce contexte de consolidation d'une filière en pleine maturité, portée par la demande croissante en automatisation dans l'industrie, la santé et la défense. Les éditions à venir devraient accentuer encore cette logique de convergence, à mesure que l'IA embarquée redéfinit ce qu'un robot peut faire de manière autonome.

💬 Boston, c'est vraiment le bon endroit pour observer ce qui se passe vraiment dans la robotique, pas juste les démos. Ce qui m'intéresse là-dedans, c'est la convergence industrielle/académique/logistique : ça fait des années qu'on en parle, et là ça devient une réalité de déploiement. Reste que pour les acteurs européens, regarder Boston de loin sans écosystème équivalent, ça fait un peu mal.

AutreOpinion
1 source
XYZ Embodied AI lance le sac à dos de calcul embarqué BotPack B Series
4Pandaily 

XYZ Embodied AI lance le sac à dos de calcul embarqué BotPack B Series

XYZ Embodied AI (星源智机器人) a présenté le 23 avril 2026 au salon Hannover Messe en Allemagne sa gamme BotPack B Series, un sac à dos de calcul embarqué destiné aux robots quadrupèdes et humanoïdes. La gamme comprend deux modèles, le B5 et le B4, tous deux propulsés par des puces NVIDIA. L'ensemble pèse moins de 2,5 kg et embarque des interfaces réseau haut débit (Ethernet 10G, 5G et Wi-Fi 7) ainsi que des modules de positionnement pour la navigation autonome. La compatibilité a été confirmée avec le robot humanoïde Unitree G1 de Unitree Robotics. L'objectif affiché est de permettre aux robots d'exécuter des modèles d'IA localement, en réduisant la dépendance au cloud et la latence de traitement associée. La mise en production de capacités de calcul edge directement sur le châssis d'un robot répond à un verrou opérationnel fréquemment cité par les intégrateurs : la dépendance à une connectivité cloud stable nuit aux déploiements en environnements industriels contraints, ateliers, entrepôts ou zones à couverture réseau limitée. Un backpack standardisé compatible avec plusieurs plateformes ouvre la voie à une séparation entre matériel robot et compute stack, une logique analogue à celle des AMR modulaires. La connectivité Wi-Fi 7 et 5G, couplée à un Ethernet 10G, cible clairement les cas d'usage en inférence temps réel de modèles VLA (Vision-Language-Action), où la latence est critique. Il reste à valider en conditions réelles quelle charge de modèle les configurations B4 et B5 peuvent effectivement supporter, XYZ n'ayant publié ni benchmarks ni données terrain. XYZ Embodied AI avait précédemment développé la plateforme T5, une unité de calcul embarqué positionnée sur le même segment ; la BotPack B Series constitue une évolution vers des formats plus compacts et universels. Hannover Messe 2026 concentre plusieurs annonces dans le domaine du edge computing pour la robotique, un marché en structuration où NVIDIA pousse son stack Isaac/Jetson et où des startups spécialisées compute-on-robot émergent. La compatibilité affichée avec le Unitree G1 positionne le produit face aux solutions de compute intégrées des fabricants humanoïdes comme Agility Robotics ou Figure AI. Aucun prix ni volume de déploiement n'a été communiqué, ce qui classe cette annonce comme lancement commercial sans validation industrielle publique à ce stade.

UELes intégrateurs robotiques européens présents à Hannover Messe peuvent découvrir une solution de compute embarqué potentiellement compatible avec leurs plateformes humanoïdes ou quadrupèdes, mais l'absence de prix, de benchmarks et de déploiements validés rend toute décision d'achat prématurée.

InfrastructureOpinion
1 source