
Une implémentation de code pour concevoir un moteur de compétences auto-évolutif avec OpenSpace : apprentissage de compétences, efficacité des tokens et intelligence collective
OpenSpace, un moteur de compétences auto-évolutif développé par le laboratoire HKUDS (Université de Hong Kong), propose une nouvelle approche pour rendre les agents IA plus intelligents et économiques. Le principe : chaque tâche exécutée enrichit une base de connaissances partagée, permettant à l'agent de réutiliser des compétences acquises pour résoudre des problèmes similaires sans recalculer depuis zéro.
L'enjeu économique est central. L'utilisation des modèles de langage comme GPT-4o génère des coûts proportionnels au nombre de tokens consommés. En capitalisant sur des compétences déjà apprises — stockées dans une base SQLite locale — OpenSpace évite de solliciter le LLM pour des raisonnements redondants. Cette logique de réutilisation constitue une réponse directe aux coûts d'inférence qui pèsent sur les déploiements d'agents IA à grande échelle.
Les chiffres avancés sont significatifs : sur le benchmark GDPVal, qui couvre 50 tâches professionnelles réelles, OpenSpace affiche une amélioration du revenu simulé de 4,2x et une réduction de la consommation de tokens de 46 %. Le système repose sur trois modes d'évolution — FIX, DERIVED et CAPTURED — et trois déclencheurs automatiques qui maintiennent la base de compétences à jour. Une dimension communautaire est également prévue via la plateforme open-space.cloud, où les agents peuvent partager leurs compétences évoluées.
À terme, cette architecture d'intelligence collective pourrait transformer la façon dont les organisations mutualisent leur capital cognitif IA. Plutôt que chaque agent repart de zéro, un écosystème partagé de compétences testées et validées pourrait s'imposer comme standard, notamment pour les entreprises cherchant à maîtriser leurs coûts d'API tout en améliorant la cohérence de leurs pipelines automatisés.


