Cortex apprend en direct un nouveau concept depuis une vidéo YouTube
 Par zion
ProgrammationCortex est un projet expérimental de cerveau artificiel à impulsions, encore aux premières étapes de son développement. Contrairement aux grands modèles de langage actuels, dont les connaissances sont figées au moment de l'entraînement, Cortex cherche à intégrer de nouvelles informations en cours d'exécution, sans réentraînement global. Une démonstration récente illustre ce mécanisme.

L'architecture repose sur environ deux millions de neurones impulsionnels (spiking neurons) répartis en dix régions inspirées du cerveau biologique — cortex visuel, auditif, préfrontal, hippocampe, amygdale, cervelet, etc. — interconnectés par environ deux milliards de synapses. Les modalités sensorielles (texte, image, audio) sont encodées par des modules pré-entraînés et compilés en TorchScript : MiniLM pour le texte, DINOv2 et CLIP pour la vision, Whisper pour l'audio. Le tout est orchestré en Rust et tourne en continu, avec un pas de simulation toutes les cinq secondes.

Dans la vidéo, on interroge Cortex sur « TurboQuant », une technique récente de quantification pour grands modèles de langage. Le système n'en a aucune trace dans son graphe de connaissances et le signale honnêtement, par l'intermédiaire de son module linguistique d'appoint. On lui transmet alors l'URL d'une vidéo explicative. Le pipeline d'apprentissage académique récupère la transcription, en isole le sujet principal, identifie une cinquantaine de concepts pertinents et en extrait une douzaine de triplets sujet-relation-objet. Ces triplets sont injectés dans le cerveau, qui renforce environ 715 connexions synaptiques selon une règle d'apprentissage de type STDP (spike-timing-dependent plasticity) et constitue onze chaînes de rappel associatives.

Reposée immédiatement après, la même question reçoit une réponse construite à partir de ces nouveaux éléments : rotations aléatoires, réduction de dimensionnalité au-delà d'un axe, cache KV, mémoire à court terme des assistants IA. Les associations sont étiquetées selon leur origine — explicite lorsqu'elles proviennent directement des triplets appris, émergente lorsqu'elles résultent de l'activation de chaînes voisines.

Le résultat est modeste mais cohérent. Les limitations actuelles sont nombreuses : l'extraction de concepts s'appuie encore sur un modèle de langage externe (Qwen 2.5) et reste bruitée, la qualité des réponses dépend largement de cet appoint, le décodeur natif (un petit transformer à mémoire duale d'environ 22 millions de paramètres) n'est pas encore au niveau attendu, et l'échelle reste très éloignée du cerveau biologique. Le projet est publié en open source sur github.com/sbuysse/cortex sous licence PolyForm Noncommercial, et avance progressivement.

Enjoy :smile:

 Lire la suite
 Dernières actualités
 Archives
Informaticien.be - © 2002-2026 Akretio SRL  - Generated via Kelare Haut de page