Memories.ai développe une couche de mémoire visuelle pour les wearables et la robotique
Memories.ai s'attaque à l'un des défis fondamentaux de l'intelligence artificielle embarquée : doter les machines d'une mémoire visuelle persistante et interrogeable. La startup développe un grand modèle de mémoire visuelle capable d'indexer et de retrouver des souvenirs enregistrés en vidéo, ouvrant la voie à une nouvelle génération d'IA physique.
L'enjeu est considérable pour deux secteurs en pleine expansion : les wearables (lunettes connectées, appareils portables) et la robotique. Jusqu'ici, les systèmes d'IA traitaient les flux vidéo en temps réel sans capacité de rappel structuré — chaque interaction repartait de zéro. Une couche de mémoire visuelle longue durée change radicalement ce paradigme, permettant à un robot ou un assistant porté de relier une situation présente à des événements passés.
Le cœur du projet repose sur un modèle capable d'indexer automatiquement des séquences vidéo et d'en extraire des souvenirs récupérables à la demande. Cette approche — baptisée « physical AI » — vise des applications concrètes : un robot industriel qui reconnaît un objet déjà manipulé, des lunettes AR qui retrouvent où un utilisateur a posé ses clés, ou encore des assistants personnels qui construisent une mémoire épisodique de la vie quotidienne.
Si les détails techniques et le financement de Memories.ai restent pour l'instant limités, la direction prise s'inscrit dans une tendance lourde de l'industrie : après la mémoire textuelle des LLMs, la prochaine frontière est la mémoire multimodale ancrée dans le monde physique — un domaine où Google, Meta et plusieurs startups spécialisées se livrent déjà une concurrence intense.


