
Le WorldModel : comment Yann LeCun et son équipe veulent révolutionner l’IA
Yann LeCun et son équipe d'AMI Labs viennent de dévoiler LeWorldModel (LeWM), leur premier modèle d'intelligence artificielle capable d'apprendre à partir du monde réel — images et vidéos — plutôt que du langage textuel. Ce « world model » représente une rupture philosophique et technique avec les grands modèles de langage (LLM) qui dominent aujourd'hui le paysage de l'IA générative.
L'enjeu est de taille : les LLM actuels consomment des ressources de calcul colossales — une simple requête à ChatGPT mobilise déjà des centaines de milliards d'opérations. Face à cette inflation computationnelle, LeWM propose une voie alternative inspirée du fonctionnement cognitif des animaux et des humains, capables d'apprendre par observation directe du monde. L'approche pourrait redistribuer les cartes dans la course à l'IA, où la puissance de calcul est devenu le principal facteur limitant.
Techniquement, LeWM repose sur l'architecture JEPA (Joint Embedding Predictive Architecture) et intègre un régulariseur gaussien simple baptisé SIGReg, conçu pour éviter l'effondrement des représentations — un problème classique dans ce type d'architecture. Le modèle s'entraîne de bout en bout directement à partir des pixels, avec seulement deux termes de perte, et affiche des performances de contrôle compétitives pour une fraction du coût de calcul habituel. LeCun avait posé les bases de cette vision il y a plus de quatre ans, du temps où il était encore chez Meta.
AMI Labs, fondée par LeCun avec d'autres chercheurs de renom après son départ de Meta, avait levé 890 millions d'euros début mars 2026. Le lancement de LeWM constitue la première concrétisation publique de cette ambition : construire une IA qui comprend le monde tel qu'il est, pas tel qu'il est décrit.



