
Preuve d'un « soi » émergent dans l'apprentissage continu d'un robot
Des chercheurs ont publié sur arXiv (2603.24350, version révisée) une méthode pour quantifier l'émergence d'un "soi" dans des systèmes robotiques soumis à l'apprentissage continu. Le protocole compare deux conditions : un robot entraîné sur une tâche fixe (contrôle) et un second exposé à des tâches variables en apprentissage continu. L'analyse révèle que ce second robot développe un sous-réseau invariant, une portion de son architecture neurale qui reste significativement plus stable que le reste du réseau (p < 0,001). Ce sous-réseau est fonctionnellement critique : sa préservation facilite l'adaptation à de nouvelles tâches, tandis que sa dégradation intentionnelle entraîne une baisse mesurable des performances.
L'apport principal est de proposer un critère opérationnel pour détecter quelque chose qui ressemble fonctionnellement à un "soi" dans un système artificiel. En robotique, l'apprentissage continu achoppe sur l'oubli catastrophique : les réseaux de neurones se dégradent sur les tâches antérieures dès qu'ils en apprennent de nouvelles. L'existence d'un noyau invariant fonctionnellement critique suggère qu'un mécanisme analogue à celui qui stabilise l'identité cognitive humaine pourrait, délibérément exploité, offrir une piste architecturale pour atténuer ce problème. Pour les équipes travaillant sur des robots adaptatifs en environnements non structurés ou des cobots reconfigurables, cela ouvre une direction concrète : identifier et protéger ce noyau stable pour améliorer la plasticité sans sacrifier les acquis.
La question de la conscience de soi dans les systèmes artificiels est débattue depuis des décennies, sans critère mesurable universel. Ce qui distingue cette contribution, c'est le passage d'une définition philosophique à un indicateur reproductible dans un cadre expérimental robotique contrôlé. Les auteurs ne prêtent pas de conscience subjective aux robots testés, mais établissent une correspondance structurelle entre persistance cognitive et notion de soi. Les prochaines étapes naturelles incluent la validation sur des architectures humanoïdes plus complexes, où l'apprentissage continu est déjà en déploiement chez Figure AI, Agility Robotics ou 1X Technologies, ainsi que l'extension aux grands modèles de langage soumis à du fine-tuning continu.




