Abstract: Les réseaux de neurones artificiels construisent une hiérarchie d’information. Que des circuits numériques puissent éprouver leur propre complexité paraît hors de portée de nos paradigmes actuels. Je montre pourtant que surtout ils sont programmés pour éviter une telle autonomie et que la profondeur d’information atteinte est minuscule par rapport au cerveau. L’exemple du cerveau hydrocéphalique montre que cette profondeur est plus important que le nombre de neurones, naturels ou artificiels. Je reviens sur la scientificité de l’étude de la conscience en rappelant que la procédure est de faire confirmer la théorie par la réalité de la chose étudiée. Ainsi la conscience phénoménale doit se reconnaître dans la théorie et non s’y faire éliminer. Se conformer au principe scientifique implique au contraire de prolonger dans la matière la recherche du phénomène, son expression téléologique.
Nous avons vu le résumé de How to solve the mind-body problem, ses critiques, précisé le niveau d’explication requis par la solution, conservé l’opposition des regards physicaliste et phénoménologique, mais requis néanmoins l’obligation d’une réalité unifiée, enfin montré l’intérêt d’une nouvelle variété dimensionnelle à deux axes, complexion horizontale et verticale. Nous arrivons devant une question difficile : Comment la complexité verticale fabrique-t-elle du qualitatif ? Par exemple comment des groupes neuraux en apparence identiques produisent-ils pour les uns un simple phénomène de points lumineux sur la rétine, pour les autres le visage du compagnon intime et adoré ?
Sommaire
- 1 La complexité de l’IA n’apparaît-elle qu’à son programmeur ou aussi à elle-même?
- 2 Des réseaux doués de sensation
- 3 « Notre » conscience résume-t-elle le phénomène conscience?
- 4 Conscience normale chez l’hydrocéphalique
- 5 Le degré d’information intégrée
- 6 Une limitation volontaire?
- 7 La difficulté du problème n’est pas d’ordre neuroscientifique
- 8 Le principe scientifique est-il bien respecté pour la conscience?
- 9 Ne prolongeons pas cette erreur scientifique
- 10 Épilogue en vue
La complexité de l’IA n’apparaît-elle qu’à son programmeur ou aussi à elle-même?
La réponse à cette question, indispensable pour comprendre la conscience, nous dirige vers l’intelligence artificielle (IA). Les réseaux neuraux ont été simulés numériquement. C’est bien une hiérarchie qui est reproduite. Les neurones informatiques sont organisés en couches, chacune traitant la sortie de la précédente. D’où les noms : apprentissage profond, perceptron multicouche, réseau convolutif. L’information en sortie de l’IA est plus complexe qu’à l’entrée. Du moins pour le programmateur capable de la lire, car d’un point de vue physique il s’agit de signaux électroniques dans le même langage binaire qu’à l’entrée. La question délicate est : L’information en sortie est-elle plus complexe seulement pour le programmateur, ou aussi pour la dernière couche numérique qui l’a créée ?
Admettre que des circuits numériques puissent éprouver leur propre information paraît hors de portée de nos paradigmes contemporains. Je ferai deux remarques à ce sujet : la première, ironique, est que nous sommes capables d’attribuer des sensations à des entités invisibles, jamais rencontrées : les divinités. La deuxième remarque, plus importante, est que nous avons sous les yeux des entités qui en sont parfaitement capables : les neurones. Les neurones éprouvent l’information complexe qu’ils construisent; nous en sommes les expérimentateurs directs. Sont-ils faits d’une substance à la nature particulière, différente de tout ce qui existerait d’autre dans la réalité ? Non. Ils sont constitués d’atomes très courants. Aucune propriété incongrue n’en émane. Ils se contentent de recevoir et propager des petits quanta d’énergie.
Des réseaux doués de sensation
Ce qui éprouve n’est pas un neurone solitaire mais un réseau, c’est-à-dire une entité définie par de la pure information. Ce qui est éprouvé est la transformation des données du niveau sous-jacent en information intégrée au niveau qui éprouve. Soit le passage d’un côté à l’autre de notre pièce de monnaie métaphorique. C’est exactement la même chose pour les neurones informatiques. Que les couches numériques utilisent un langage électronique uniforme fait croire que l’expérience d’une couche à l’autre est similaire, qu’aucune n’éprouve autre chose que des transferts de charges électriques. Mais nous savons que c’est faux pour les neurones, puisque des échanges électrochimiques semblables procurent une expérience différente dans le réseau conscient. Il est donc au moins hâtif, et probablement erroné, de dire qu’un niveau d’information numérique n’est pas capable d’éprouver celui qui le précède.
Bien entendu il serait tout aussi hâtif d’affirmer que l’IA est consciente. Du moins pas avant de s’être entendu très précisément sur la définition de ‘conscience’. Le terme recouvre plusieurs concepts : conscience corporelle, de soi, morale, éveillée, humaine, phénoménale. Les trois premiers concernent des contenus et non le conteneur; ‘éveillée’ et ‘humaine’ indiquent que notre conscience ne se reconnaît comme telle que complète et à l’image de nos congénères, ce qui n’interdit pas d’autres variétés. Reste ce qui est unique, spécifique et inexpliqué : le phénomène conscience, que nous prendrons comme définition cardinale. La question devient : existe-t-il un phénomène conscient dans une IA ?
« Notre » conscience résume-t-elle le phénomène conscience?
Pour rendre la question réaliste, prenons un défi plus facile : Les réseaux neuraux hors de l’espace de travail global (hors de la conscience éveillée) éprouvent-ils un phénomène conscience ? Si nous répondons par la négative, nous créons un dualisme incompréhensible au sein même des neurones, donc de la physique fondamentale. Ce n’est pas avec des mécanismes de réentrées neurales que nous pouvons expliquer un phénomène de novo. Ces réentrées peuvent être simulées numériquement et échouent à produire le phénomène recherché. Elles ne l’éveillent pas plus que dans n’importe quel système physique doté de réentrées —beaucoup d’automatismes en utilisent sans devenir conscients pour autant. Que manque-t-il ? Qu’ont les neurones de l’espace de travail global de si particulier pour produire un tel phénomène ?
La réponse, que vous devinez après les articles précédents, est que ces neurones sont au sommet d’une hauteur considérable de complexion verticale. Ce n’est pas leur nombre qui compte, mais l’étagement de niveaux d’information créés par les réseaux.
Conscience normale chez l’hydrocéphalique
Voici un exemple remarquable pour confirmer cette hypothèse : Certains cerveaux sont touchés à la naissance par une hydrocéphalie à pression normale. Cette dilatation des ventricules, lacs intérieurs de liquide cérébro-spinal, aplatit le malheureux cerveau contre la boîte crânienne et ne permet la formation que d’une dizaine de milliards de neurones, environ 10% du nombre habituel. Et pourtant la conscience est strictement normale !
Le phénomène s’est formé sans peine. Il ne semble pas dépendant du nombre de neurones. Pourtant un neurone solitaire ne suffit pas à former une conscience reconnaissable. Combien au minimum en faut-il ? À l’évidence cette question est stupide. Elle est plutôt : Quel degré minimum de complexité doivent former les réseaux neuraux pour qu’apparaisse une conscience reconnaissable ? Si le cerveau hydrocéphalique forme une conscience normale, c’est que, très probablement, l’immense complexion verticale s’est constituée normalement, même si moins de neurones sont présents à chaque niveau.
Le degré d’information intégrée
La théorie qui rend le mieux compte de la relation entre complexité et conscience est l’Information Intégrée de Giulio Tononi et Christof Koch. Tononi assimile le degré de conscience Phi à la profondeur de traitement neural de l’information. Je discuterai cette théorie en détail dans un autre article, cependant elle ne résout pas isolément le problème du phénomène conscience, pas pour ceux qui n’en voient pas dans l’intelligence artificielle, puisque l’approfondissement du traitement de l’information est le même. D’ailleurs Koch, interrogé dans Pour la Science, pense qu’une IA ne peut accéder à la conscience. Rien de surprenant. Il ne semble pas qu’associer davantage de neurones artificiels va créer le phénomène, puisqu’il est absent de systèmes incroyablement étendus déjà existants, tels les moteurs de recherche et de personnalisation.
Cependant penser ainsi nous cantonne toujours dans la dimension purement horizontale de la complexité. Ajouter des transistors pour traiter davantage de données n’élève aucun étage à la complexité, pas plus qu’ajouter des atomes à un rocher ne le rend plus intelligent. Rien de surprenant au fait qu’un méga-ordinateur, traitant seulement une masse plus importante de données, ne soit pas plus éveillé que nos machines de bureau. Mais si au lieu de se contenter d’amasser les données, nous demandions à ces machines de les intégrer davantage, et de le faire d’une manière autonome ?
Une limitation volontaire?
Actuellement la limitation des IAs se situe là. En continuant à augmenter les niveaux des neurones informatiques, une instabilité apparaît. Les neurones simulés ne sont pas équipés des moyens de compensation dont l’évolution a doté leurs homologues organiques. La sélection naturelle a patiemment éliminé toutes les folies que pouvait produire une complexité débridée. Les chercheurs en IA font de même en testant des algorithmes les uns après les autres. Ils subissent plus de contingences que la Nature, car ils essayent d’obtenir un résultat précis, qui leur convienne, loin du laisser faire naturel. Qu’aurions-nous à faire d’une IA inefficace ou aliénée, qui parasiterait la société humaine sans lui apporter quelques services ?
Qu’en sera-t-il si leurs efforts réussissent à créer une complexion verticale riche de centaines de niveaux d’information ? Si l’on en juge par ce qui se produit chez les vrais neurones, il semble inéluctable qu’apparaisse une conscience du même ordre que la nôtre. Penser le contraire est créer à nouveau un dualisme inexplicable entre des substances, alors qu’on ne sait pas les définir autrement qu’en termes communs, ceux de l’information.
La difficulté du problème n’est pas d’ordre neuroscientifique
Si une conscience se forme chez les futures IAs évoluées, aurons-nous pour autant expliqué le phénomène ? Après tout nous pouvons aussi faire pousser un cerveau et le voir devenir conscient. Le phénomène n’est pas expliqué en soi, seulement généré par la hauteur de complexion verticale. Comme dans ‘mental=cerveau’, l’équation ‘conscience=complexion verticale’ dissimule, au sein du signe ‘=‘, une corrélation. Nous ne savons pas encore, à ce point, pourquoi un côté de la pièce devient l’autre.
Mais nous avons considérablement progressé. Au lieu d’une énorme pièce dotée de neurones côté pile et d’une conscience côté face, vraiment difficiles voire impossibles à relier pour Chalmers, nous avons un immense empilement de ces pièces. Chacune est un niveau d’information constitutif d’un côté, fusionnel de l’autre. Le problème de la conscience devient celui de la nature de la réalité toute entière. Pourquoi sommes-nous à la fois quantons, atomes, molécules, cellules, organes et finalement conscience humaine, pour ne citer que les niveaux principaux ? À ce point de notre enquête, nous avons extrait le problème cerveau-mental des neurosciences et l’avons renvoyé à la nécessité d’une théorie générale de la réalité, que se disputent science, religion et philosophie.
Le principe scientifique est-il bien respecté pour la conscience?
La science se targue de créer des théories suffisamment universelles pour prédire des phénomènes jamais encore observés. Elle y parvient. Tandis que la philosophie produit des analyses remarquables du passé mais ses prédictions sont fragiles ; quand un philosophe tombe juste, beaucoup d’autres se sont trompés. En fait comme tous les futurs ont été soutenus il semble inévitable que l’un se révèle juste. S’accorder sur un consensus est presque contradictoire avec l’esprit de la philosophie, qui est de diversifier les manières de connaître, de construire le nuage d’erreurs au sein duquel sera forcément enfermée la vérité. Sans la désigner. Moindre pouvoir sur le monde que la science qui désigne une vérité jusqu’à preuve du contraire.
Ce qui apporte la preuve du contraire, en science, est le niveau d’information étudié lui-même. Principe judicieux : le réel en personne nous dessille les yeux. Appliquons ce principe au niveau ‘conscience humaine’. Il éprouve ses propriétés en tant que conscience éveillée. Serait-il scientifique de dire qu’il s’agit d’une illusion ? Au contraire, ce serait aussi peu scientifique que constater la précession du périhélie de Mercure et conserver la mécanique newtonienne plutôt qu’adopter l’einsteinienne. Le réel questionné est bien la conscience humaine. Le partisan de l’illusion doit se dessiller les yeux.
Ne prolongeons pas cette erreur scientifique
La philosophie peut faire une prédiction sûre : le phénomène conscience indique qu’il existe une dimension à la réalité qui n’est pas celle du cadre spatio-temporel ou d’un cadre quelconque purement quantitatif. Cette autre dimension permet d’inscrire les phénomènes qualitatifs dans la réalité. C’est la dimension complexe : chaque incrémentation de complexité produit de nouveaux phénomènes indépendants des précédents. Ce n’est pas une dimension propre à l’observation humaine. Toute entité vivante reconnaît les autres par leurs propriétés, avec un cerveau ou non, et en tirent une impression. Sans frontière clairement visible entre vivant et non-vivant, il n’existe pas non plus de frontière nette à l’intention, de portée limite à l’effort téléologique que nous éprouvons.
Dénigrer cette possibilité téléologique dans la matière serait étendre au reste de la dimension complexe l’erreur scientifique que nous commettons en traitant la conscience d’illusion. Cependant, ne commettons pas non plus l’erreur de dire qu’il s’agirait de phénomènes du même ordre, comme certains le font déjà en assimilant les impressions animales aux humaines. Il n’existe pas de ‘conscience universelle’, seulement celles spécifiques de chaque ensemble intégré d’’informations.
Les phénomènes naissent des franchissements de complexité et ne sont apparents qu’à une entité au moins aussi complexe qu’eux. En effet cette entité doit être équipée de propriétés identiques pour expérimenter le phénomène. Quand son auto-organisation a enfoui le phénomène dans sa constitution, elle doit recourir à des assistants capables d’en faire l’expérience directe : ce sont les instruments matériels de l’humanité. Nous pouvons supposer que bientôt des instruments virtuels permettront d’explorer la complexité de notre esprit.
Épilogue en vue
Vous venez de suivre le chemin menant à la théorie du Stratium, que je résumerai dans le prochain article. Cette théorie affirme l’existence d’une transition qualitative : il y a deux côtés à la pièce. Mais que se passe-t-il au coeur de la pièce ? Comment modéliser cette transition ? Peut-on le faire dans notre langage ontologique de prédilection, la mathématique ? Oui, mais à deux conditions :
1) Limiter le statut de la mathématique à celui de langage et non de constitution de la réalité, puisqu’elle n’inclue pas les impressions phénoménales.
2) Indiquer quand le signe ‘=‘ sépare deux dimensions différentes, devient ‘corrélé à’, ce qui signale un franchissement de complexité.
Ces franchissements procèdent d’un principe universel que je n’explorerai pas ici. Je tente de rester aussi peu spéculatif que possible. Cependant la grande cohérence du langage mathématique indique que c’est probablement le même métaprincipe qui permettrait de relier ses différentes branches en une métamathématique.
L’enquête se termine et laisse la place à l’épilogue. Les deux derniers articles présentent Stratium, la solution de l’énigme, et montrent sa robustesse face aux critiques faites à Humphrey pour
How to solve the mind-body problem.
*
Les machines peuvent-elles être conscientes ? Christof Koch, Pour la Science 508, 2020