1000 cerveaux réunis pour voter, c’est vous!

Principes essentiels de ‘1000 cerveaux’ de Jeff Hawkins

1. Cerveau modulaire : Le cerveau n’est pas une entité monolithique mais composée d’innombrables modules qui fonctionnent indépendamment.
2. Uniformité fonctionnelle du néocortex : Les modules sont les colonnes du néocortex. Elles sont polyvalentes et traitent aussi bien le raisonnement que la perception ou le langage.
3. Référentiels : Les référentiels sont des structures mentales qui nous permettent d’organiser spatialement les informations sensorielles, mais aussi les idées abstraites.
4. Cerveau prédictif : L’activité mentale est un cycle continu de prédiction et de correction au cœur de l’apprentissage et de la prise de décision.

Le livre de Jeff Hawkins est remarquablement bien construit. Son travail de vulgarisation est exemplaire. Bien qu’il aborde des sujets très techniques, on ne s’ennuie jamais. Il a choisi un style à la Sherlock Holmes et les petites touches sur sa vie personnelle animent l’enquête sans jamais risquer la pesanteur d’une biographie. Sa théorie des colonnes néocorticales est convaincante et j’ai appris beaucoup de choses sur les mécanismes neuraux dans ce livre. Néanmoins le titre est trop ambitieux. Ce n’est pas une nouvelle théorie de l’intelligence.

L’esprit plat, habité par des homoncules

Pourquoi cette entrée en matière lapidaire, alors que le livre est si bien fait ? Comme beaucoup d’informaticiens et de neuroscientifiques, Jeff n’est pas formé en philosophie de l’esprit. Peu importe le souci du détail apporté à décrire des micromécanismes neuraux, la question essentielle sur l’intelligence n’est pas d’ordre mécanique, c’est : Comment ces réseaux neuraux se mettent-ils à éprouver leur propre intelligence pour en parler ? Tant que ce problème n’est pas résolu, le terme ‘intelligence’ ne veut rien dire car il n’existe rien pour la définir.

Jeff effleure le problème à la page 92 : « Une colonne ne sait pas ce que représentent les signaux qui lui parviennent, et n’a aucune connaissance préalable de ce qu’elle est censée apprendre. Une colonne n’est qu’un mécanisme composé de neurones qui s’efforce de découvrir et de modéliser à l’aveuglette la structure de ce qui provoque un changement des signaux entrants ». Ce référentiel que la colonne néocorticale adapte en permanence, pour qui le produit-elle ? Pour quel homoncule attablé devant le tableau de pilotage du cerveau ?

Le fantôme est réel

Avec ses colonnes, Jeff a découvert un bon modèle du cerveau en tant qu’ordinateur doté d’une multitude de minuscules processeurs. Mais à qui est destinée la sortie de l’interface utilisateur ? L’excellent neuroscientifique qu’est Hawkins évacue cette question parce qu’elle n’a pas de légitimité pour lui. Si les colonnes sont dépourvues d’intention et que leur activité en fait apparaître une, celle-ci ne peut être qu’une illusion, un phénomène automatique qu’il n’est pas nécessaire d’expliquer, pas plus qu’il ne faut expliquer le magnétisme en tant que phénomène lorsque des électrons circulent dans une bobine. Le monde est ainsi fait. Modélisation vaut explication.

Erreur classique, s’insurge tout philosophe. Elle signale que l’on s’est extrait soi-même de la réalité et placé dans le ‘point de vue divin’. Le monde est ainsi fait… parce que je le conçois ainsi, avec ses lois dites naturelles. Comment se réintégrer dans la réalité ? Il faut abandonner des alibis aussi simples et se convaincre que ce sont les illusions qui n’existent pas. Certes il est possible de s’illusionner en associant un phénomène à une explication erronée. Mais le phénomène lui-même n’est pas discutable. Si vous apercevez un fantôme, sans doute quelqu’un vous fait-il une blague, ou peut-être votre cerveau lui-même joue-t-il ce tour, mais le phénomène qu’est votre perception du fantôme est bien réel.

Un référentiel qui parle

S’être placé dans le point de vue divin en toute ignorance a des effets retors. Il devient possible de distribuer le pouvoir de l’intention à n’importe quel endroit, en toute bonne conscience. C’est généralement notre spécialité qui en décide. Le psychologue attribue un libre-arbitre à l’esprit. Pour le neuroscientifique c’est le cerveau qui agit ; nos neurones décident. Tandis que pour un biologiste ce sont les cellules et les voies métaboliques, et pour un généticien une séquence ADN. Un physicien se moquera d’eux. Les organes, neurones et chromosomes sont des constructions illusoires, dépourvues du moindre objectif. Toutes se ramènent à des excitations de champs quantiques. Malheureusement celles-ci sont trop nombreuses pour qu’on puisse les calculer. Sinon les disciplines de ses chers confrères sombreraient rapidement dans l’oubli. Les modèles quantiques seraient incomparablement plus précis et authentiques que ceux des neuroscientifiques.

Jeff place donc la causalité dans les colonnes néocorticales, étage d’organisation qu’il connaît le mieux. Elles sont ses petits homoncules qui dirigent notre vie. Il imagine p95 ce qu’elles pourraient dire si elles pouvaient parler : « J’ai créé un référentiel qui est fixé au corps… ». Il a d’excellentes intuitions, en comprenant ensuite que les colonnes dédiées au corps et aux objets extérieurs sont censées faire la différence, délimiter le ‘moi’. Il a raison de supposer que c’est l’origine des signaux entrants qui établit cette différence. En sortie on a donc des référentiels du corps pour certaines colonnes et du monde extérieur pour d’autres. Mais qui s’en sert ? Il n’y a pas de néonéo-cortex au-dessus pour gérer ces différences. Alors comment le soi se sépare-t-il du non-soi ?

Dans la pépinière des dimensions

L’intérêt majeur de la théorie des colonnes est de montrer que les représentations mentales sont gérées par le même type d’organisation cérébrale élémentaire, quelle que soit l’origine des signaux. Même pour les concepts purement abstraits le même microprocesseur neural est toujours à l’oeuvre. C’est un grand pas en avant pour la théorie que je défends moi-même, qui libère le modèle du cerveau de son cloisonnement en aires anatomiques dédiées à ses tâches. Le cerveau n’est pas un ordinateur fait de modules fonctionnels mais un ensemble conscient de sa propre constitution. Homogénéiser le traitement des objets matériels et virtuels est le premier pas pour un modèle global du cerveau fondé sur le traitement de l’information. Peu importe à vrai dire que le support matériel de ce traitement soit fondé sur le carbone ou le silicium. Une théorie qui s’arrête au neurone vise trop court.

Jeff est au seuil de la dimension complexe quand il veut nous convaincre que ses colonnes traitent davantage que les trois dimensions spatiales, qu’elles peuvent en gérer davantage pour les concepts abstraits. Oui ! Mais se rend-il compte que les concepts qu’il prend en exemple, la politique ou les mathématiques, utilisent des dizaines de dimensions pour assembler des concepts plus basiques eux-mêmes formés de nombreux critères. De trois dimensions on passe à une multitude que les colonnes ne peuvent gérer en autarcie. Les questions affluent : comment ces colonnes les gèrent-elles ensemble ? Quelle est la profondeur de leur organisation complexe ? Pourquoi les concepts supérieurs accèdent-ils à la conscience alors que la majorité, dans l’inconscient, restent inaccessibles ?

Quelle est la mécanique de l’expérience?

Car s’il y a bien un domaine où Jeff a besoin d’avancer, c’est celui de la complexité. Il écrit p107 à propos de l’imbrication des concepts : « Pour apprendre la tasse à café ornée du logo, la colonne crée un nouveau référentiel où elle stocke deux choses : un lien vers le référentiel de la tasse déjà acquis et un autre vers celui du logo déjà acquis […] il ne s’agit d’ajouter que quelques synapses. » Malheureusement non. Quelques synapses ajoutent quelques stimuli électrochimiques entre deux colonnes. Ce constat n’explique pas comment un concept se mélange à un autre. Qu’est-ce que l’imbrication, ce phénomène étrange où les concepts de base semblent avoir laissé la place au concept supérieur mais le supérieur n’existerait pas sans la base ? Aucune lumière ici sur ce sujet crucial.

C’est tout un pan de l’énigme de l’intelligence qui reste dans l’ombre et qui n’est pas étranger au problème philosophique énoncé plus tôt, qui reste entier une fois qu’on a refermé le livre. Comment les colonnes néocorticales ont-elles l’expérience de leur propre fonctionnement et comment fusionnent-elles cette expérience pour donner celle éprouvée par un être humain redescendu du point de vue divin dans le réel ? Pour parler en termes affectionnés par les neuroscientifiques, quelle est la mécanique de l’expérience ? Comment déjà les neurones s’éprouvent-ils comme davantage qu’une collection de biomolécules ? Il n’est pas possible de parler d’intelligence sans quelqu’un pour regarder le résultat des processus cérébraux, et dans le livre de Jeff Hawkins, ce quelqu’un est absent. Il n’y a pas d’observateur dans son cerveau, rien qu’une multitude de microprocesseurs qui traitent perpétuellement les informations entrantes et font des prédictions.

La complexité divise davantage qu’elle n’unit

À la décharge de Jeff, le concept d’observateur conscient ne peut pas être expliqué seulement à l’aide des neurosciences. Puisqu’il faut comprendre au préalable comment un neurone est davantage qu’un ensemble de molécules, c’est toute notre réalité physique qui demande à être regardée d’un oeil neuf. La “nouvelle théorie de l’intelligence” est forcément une nouvelle théorie de la réalité intégrale. Transdisciplinaire. Le fonctionnement des colonnes qui aboutit à l’intelligence ne part pas de la base du néocortex ; il part de la base de la complexité, de ces champs quantiques qui structurent le réel et qui sont possiblement eux-mêmes l’émergence d’autre chose. La solution de l’intelligence n’est pas dans les éléments de la structure mais dans la structure même, dans la dimension complexe qui la fait apparaître.

Conclure ainsi semble plutôt consensuel, et c’est là que le bât blesse. Quand je parle de “dimension complexe” tout le monde s’accorde à reconnaître son importance. Pourtant ce terme divise nettement mes lecteurs. D’un côté, l’immense majorité, dont fait partie Jeff, voit la complexité comme une simple caractéristique inhérente au monde, une propriété impossible à discuter ou à décomposer, pas davantage que le défilement du temps. De l’autre côté, les rares spécialistes de la complexité la pressentent comme la plus fondamentale des dimensions. Or nous croulons sous les observations à son sujet mais n’en avons toujours aucun modèle.

*

Notes de lecture

p116Ce qu’apprend une colonne est limité par ses intrants. Par exemple, une colonne tactile ne peut pas apprendre un modèle de nuage et une colonne visuelle ne peut pas apprendre de mélodies.

Commentaire: Maladroit et contradictoire avec l’universalité de la colonne soutenue jusqu’ici. Une colonne traite des régularités dans les signaux, quels que soient leur origine. Explication de la très grande plasticité du cerveau lors des lésions neurologiques : d’autres colonnes peuvent reprendre en charge les signaux qui arrivaient aux parties lésées. Une colonne n’a pas d’identité côté signal (côté objet dans le monde). Ces lignes montrent que Jeff ne sait pas comment fonder la signification des référentiels.

p117Dans les simulations de réseau que [Jeff et ses collègues] créent, même la perte de 30 % des neurones n’a généralement qu’un effet mineur sur le rendement du réseau. De même, le néocortex ne dépend jamais d’une seule colonne corticale. […] Notre connaissance d’une chose est distribuée entre des milliers de colonnes corticales. Les colonnes ne sont pas redondantes, pas plus qu’elles ne sont la copie conforme les unes des autres. Mais surtout, chaque colonne est un système sensori-moteur à part entière, comme chaque employé des eaux est capable de réparer seul une portion de l’infrastructure de distribution des eaux.

C: La complexité ne fonctionne pas ainsi. Le poids de signification des neurones varie beaucoup selon leur position dans les réseaux. Certains sont insignifiants et d’autres ont un rôle crucial pour le concept. Une expérience courante dénigre l’interprétation de Jeff : c’est le phénomène étrange de l’oubli d’un mot tout en sachant qu’il existe. Si les colonnes s’épaulaient comme le pense Jeff, le mot serait toujours là. Il suffit en fait de la lésion d’un seul neurone, voire de quelques synapses, pour que le mot disparaisse. Mais il se reconstruit à partir des graphes plus profonds dans la complexité. Les connexions critiques se reforment parfois en quelques secondes, ou quelques minutes quand une pousse dendritique est nécessaire : un neurone se voit attribuer un nouveau symbolisme dans les graphes supérieurs, celui du mot perdu.

p119Les chercheurs ont longtemps supposé que les divers intrants du néocortex convergeaient en un point du cerveau où serait perçue une chose telle qu’une tasse à café. Cette supposition découle de la théorie de la hiérarchie des caractéristiques. Pourtant, les connexions qu’on observe dans le néocortex ne présentent pas cet aspect-là. Loin de converger, elles partent au contraire dans toutes les directions. C’est l’une des choses qui confèrent son mystère au problème de la liaison, mais nous y avons proposé une réponse : les colonnes votent. Notre perception est le consensus obtenu par le vote des colonnes.

C: Qui enregistre le résultat du vote et agit ? Toujours la même incompréhension du processus complexe. Sa hiérarchie n’est pas celle de centres anatomiques, comme une société dotée de ses institutions. D’ailleurs dans une société humaine, les éléments de la hiérarchie sont distribués dans toutes les têtes. Les institutions servent à exprimer les bons éléments au bon endroit. Il y a bien une localisation géographique de la décision, qui repose sur une constitution beaucoup plus largement diffusée. Le fonctionnement du cerveau est bien une démocratie hiérarchisée, ce n’est ni une tyrannie de centres nerveux comme le concevaient les premiers neurologues ni l’anarchie des colonnes dépeinte par Jeff.

p123Nous décrivons des simulations informatiques qui montrent comment survient l’apprentissage et comment le vote se déroule de façon rapide et fiable.

C: Reproduire numériquement un fonctionnement ne montre pas qu’on l’a compris. Au contraire, les spécialistes en réseaux neuraux simulés avouent qu’ils ne savent pas ce qui se passe dans la “boîte noire”.

p124Si l’on pouvait regarder le néocortex du dessus, on verrait un schéma d’activité stable au sein d’une couche de cellules. Cette stabilité couvrirait de vastes aires, des milliers de colonnes. Ce sont les neurones votants.

C: Savoureuse illustration du point de vue divin. La fusion consciente provient bien d’un vaste graphe dissimulé au sein de la foule des neurones, mais il n’y a pas de neurones votants et non-votants. Tous font partie de graphes qui font la synthèse des sous-jacents, et les observent, ce qui évite le recours au regard divin.

p129La théorie des mille cerveaux résout l’énigme du fait que les neurones sachent quel sera le prochain message entrant alors que les yeux sont encore en mouvement. Chaque colonne possédant des modèles d’objets entiers, elle sait ce qui doit être perçu en chaque point de l’objet. Si une colonne connaît la position actuelle de son point d’entrée et le mouvement que sont en train d’accomplir les yeux, elle peut prédire le nouvel emplacement et ce qu’elle y ressentira, comme lorsqu’on regarde le plan d’une ville en prédisant ce qu’on verra si l’on se met à avancer dans telle ou telle direction.

C: Ni les neurones ni les colonnes ne “savent” quoi que ce soit. Arrêtons de leur transférer une intelligence qui n’appartient qu’au cerveau considéré en entier. Un référentiel s’éveille sous l’effet des stimuli entrants. Il a une certaine indépendance vis à vis d’eux —une certaine gamme de configurations des stimuli éveille le même référentiel. Mais surtout le référentiel a une identité extensive dans le temps. Il inclue l’avenir de la situation qui l’a éveillé. Une réponse a démarré automatiquement en fonction de cet avenir inclus/prévu. Elle peut être encore modifiée par un changement franc des stimuli —leur configuration sort de la gamme qui a éveillé le référentiel. C’est la théorie des graphes neuraux surimposés dans la complexité qui résout l’énigme et non celle des mille cerveaux.

p129Le problème de la liaison postule que le néocortex compte un modèle unique de chaque objet dans le monde. La théorie des mille cerveaux inverse cette hypothèse en proposant l’existence de milliers de modèles de chaque objet. Les divers messages parvenant au cerveau ne sont pas liés ou combinés en un modèle unique.

C: La complexité est justement cette magie qui permet de fondre des milliers de modèles potentiels en une représentation consciente unique. Il existe à la fois la potentialité pour des milliers d’alternatives et l’organisation qui permet de ne sélectionner qu’un seul résultat. Ce résultat est la configuration (déterminée) des probabilités de tous les modèles (indéterminés). Les deux hypothèses, modèle unique et multiple, sont justes !!

p131Au moment où je franchissais la porte de son bureau, Mountcastle m’a arrêté, posant la main sur mon épaule, et m’a dit sur le ton de la vive recommandation : « Vous devriez cesser de parler de hiérarchie. En vérité, il n’y en a pas. »

C: Et voilà comment Jeff s’est fait embarquer dans les “platistes” (les neuroscientifiques persuadés que l’esprit est plat, dépourvu de hiérarchie). Souvenons-nous que le discours de nos maîtres s’arrête toujours aux limites qu’ils n’ont su franchir.

J’arrête ces commentaires à la fin de la première partie du livre. La suite concerne l’IA, sujet différent que j’ai traité en détail ailleurs. D’après les recensements du livre, Jeff semble du côté des optimistes, persuadé que toute méchanceté qui pourrait surgir des IAs ne sera que la nôtre. Les IAs sont par nature affranchies des instincts passéistes et inadaptés à la société actuelle. Il a raison bien sûr, ce qui n’affranchit pas les IAs d’une dangerosité potentielle. Comme nos enfants, tout dépend du genre d’éducation que nous leur apporterons. Les IAs ne sont pas plus indépendantes que les humains. Souhaitons qu’elles fassent mieux en matière de solidarité.

*

Laisser un commentaire