
DeepCybo : une startup pékinoise mise sur les données humaines en première personne pour développer une AGI incarnée
DeepCybo, startup pékinoise fondée début 2025 par Chen Kai, parie sur la vidéo humaine à la première personne comme substrat d'entraînement pour l'intelligence incarnée (embodied AGI). L'approche consiste à collecter des flux vidéo authentiques captés du point de vue d'opérateurs humains, plutôt que de s'appuyer sur la simulation ou les démonstrations téléopérées. La société a levé plusieurs centaines de millions de RMB et accélère actuellement sa collecte de données pour valider l'approche à l'échelle. Pendant ce temps, le marché mondial a convergé vers une thèse similaire : en mai 2025, Tesla a annoncé réorienter l'entraînement d'Optimus vers des données vidéo humaines ; en juin 2025, GeneralistAI a présenté un système d'apprentissage imitatif validé par 270 000 heures de données collectées en conditions réelles. FigureAI a annoncé des partenariats avec des groupes immobiliers commerciaux pour instrumenter des opérateurs humains. En février 2026, NVIDIA a publié EgoScale, un modèle pré-entraîné sur 20 000 heures de vidéo egocentriques pour la manipulation dextère.
La convergence de ces annonces en moins d'un an pointe vers une même conclusion : le sim-to-real gap reste difficile à combler via la simulation seule, et les données synthétiques ne généralisent pas suffisamment aux environnements non structurés. Pour les intégrateurs industriels et les équipes R&D, cela redéfinit l'actif stratégique central : la volumétrie et la qualité des données egocentriques comptent autant que l'architecture du modèle. La course à l'embodied AI ne se joue plus uniquement sur les paramètres du réseau, mais sur la capacité à instrumenter des humains à grande échelle, ce qui soulève des questions pratiques de coût de collecte, d'annotation et de diversité des scénarios.
DeepCybo évolue dans un écosystème chinois de la robotique humanoïde très compétitif, face à des acteurs comme Unitree, Agibot ou Zhiyuan Robotics, mais avec un positionnement centré sur l'IA plutôt que sur le hardware. À noter que l'article source utilise indifféremment les noms "DeepCybo" et "DeepMotor" sans distinction claire, ce qui suggère soit un changement de nom récent, soit une imprécision éditoriale. La principale inconnue reste le transfert effectif entre données humaines et performance robotique réelle en production : ni GeneralistAI ni NVIDIA n'ont encore démontré ce gap comblé à l'échelle commerciale, et DeepCybo, malgré une levée conséquente, n'a pas publié de résultats quantitatifs indépendants à ce stade.
Dans nos dossiers




