Le J’ai-eu-20 et le J’ai-essayé
Où va-t-on, si les philosophes deviennent aveugles et les anciens de HEC des sages ? C’est le sentiment qui vient à lire le “débat” entre Raphaël Enthoven et Alexandre Cadain sur l’IA. Débat ? Enthoven est là pour présenter son essai, L’esprit artificiel, une machine ne sera jamais philosophe, et Cadain convoqué en tant que faire-valoir. C’est pourtant le second qu’il faut écouter, le premier paradant avec des déclarations à l’emporte-pièce après sa victoire sur chatGPT lors du bac philo de juin 2023 —il a eu 20 et l’IA un modeste 11.
Cela fait-il de l’IA un mauvais philosophe sur le texte brut ? Les correcteurs sont des clones académiques d’Enthoven. Et une grande partie des candidats humains auraient été ravis d’avoir 11. Ne nous laissons pas manipuler par les comparaisons des IA avec l’élite humaine spécialisée, car cela fait de la majorité de l’humanité une sous-espèce déjà largement dépassée par les IA. Mais voyons déjà ce que vaut « l’élite » philosophique dans le détail…
« Comment définissez-vous l’intelligence? »
…demandent les journalistes du Point. « C’est une capacité de tri et d’analyse, qui ne saisit du monde que son squelette et qui dissipe les mystères de ce qui existe, sans dissiper l’énigme de sa présence ». Ce qu’Enthoven définit là est la représentation mentale et non l’intelligence. L’intelligence est d’en étoffer les critères, de les intégrer ensemble, et de recouvrir justement le “squelette” (la représentation brute) d’une foule de connexions de chaque chose avec les autres, pour dissiper l’énigme de sa présence en la reliant aux autres. Enthoven est à côté du sujet, ça commence bien.
Alexandre Cadain, lui, connaît la bonne réponse. « L’intelligence est la capacité à tisser des liens ». Sans parti-pris sur les perspectives de l’IA, il l’a d’abord vue comme une extension potentielle de l’intelligence humaine avant d’admettre qu’elle a des capacités créatrices inédites. Pour lui aucune de nos facultés n’est imperméable à la machine.
À des années-lumières… de la bonne réponse
« Tout en rappelant que la machine est à des années-lumières d’atteindre les capacités humaines! », l’interrompt Enthoven. Des années-lumières ? Ce cher Raphaël se croit-il doté de capacités célestes, voire divines ? Il pense l’IA capable de répondre aux questions mais pas de réfléchir à une problématique, de « questionner les questions ». Sait-il comment il le fait lui-même, pour être certain que ça n’est pas reproductible ?
Enthoven réussit le tour de force, dans une seule interview, de critiquer le fait de se prendre pour Dieu (chez ceux qui voudraient donner le jour à une IA consciente) et s’installer bien à l’aise sur son trône. Extrait: « Raphaël Enthoven, êtes-vous certain que lors d’un éventuel entretien dans trois ans vous continuerez d’affirmer que la machine ne pourra jamais être philosophe ? ». Réponse: « Même dans trois mille ans!… »
Pour Enthoven, l’IA ingère des données pour devancer la reconnaissance de choses qu’elle n’a pas encore rencontrées, alors que le philosophe s’étonne de choses habituelles. Présenté ainsi, on se demande s’il n’est pas plus judicieux d’être une IA et si les philosophes ne sont pas simplement des gens qui s’ennuient. Une intelligence humaine accumule elle aussi un grand nombre de données, dans l’enfance et par son éducation, avant d’avoir suffisamment d’habitudes pour s’en étonner. Nous passons plus de temps à nous étonner de l’inhabituel que de l’habituel. Les saillies de Raphaël fleurent bon la pédanterie.
Nature et artifice: les centaures
Plutôt que débattre de ces déclarations assez vaines, Cadain parle d’entreprises bien plus intéressantes, comme coopérer avec la machine. Il donne l’exemple de Kasparov, battu par Deep Blue, qui a inventé ensuite les échecs avancés, des compétitions de “centaures”, couples humain-machine. Les gagnants n’étaient pas les meilleures machines associées aux meilleurs humains mais ceux qui communiquaient le mieux ensemble. Idem aujourd’hui pour chatGPT. Les meilleurs résultats sont obtenus par ceux qui connaissent parfaitement les potentialités de la machine et non pas, bien entendu, par ceux qui cherchent à la mettre en échec…
Pour Enthoven c’est une « zombification progressive de l’humain ». « Il n’est pas impossible qu’on robotise la conscience […] mais ça ne veut pas dire qu’on est sur le point de créer des machines vivantes! » Raphaël, tu as un siècle de retard. C’est quoi pour toi, la vie ? De la substance biologique ?
Mortelles décisions intermédiaires
Cadain, le seul qu’il faut lire, connaît les vrais problèmes de l’IA. « Lorsque l’on pose une question à une machine, il y a une foule d’opérations intermédiaires qu’on ne contrôle pas. Si on créait une machine à qui l’on demanderait d’être plus heureux, elle pourrait au passage tuer notre chien parce qu’elle a repéré qu’on grimace quand il aboie ». Mais les opérations intermédiaires invisibles sont celles qui rapprochent l’IA de l’humain et de son traitement inconscient des choses. Elles sont un facteur nécessaire de diversité et ne posent problème que s’il n’existe pas de coercition sur les résultats.
Les humains aussi sont riches en idées bizarres. Mais ils ne les suivent pas toutes parce qu’ils réfléchissent aussitôt aux conséquences. Nous sommes dotés d’une conscience sociale patiemment tissée des relations avec nos congénères et des règles de droit. Les règles ne sont pas les données les plus difficiles à faire rentrer dans une IA. Elle a une très bonne mémoire.
L’humain remplaçable
Je conclue sur la peur du remplacement des humains par les IAs. C’est le plus faux des problèmes, et le démontrer tient en très peu de mots. La peur n’est pas celle de perdre un job mais du pouvoir qu’il procure. Être sans ressources, ne plus toucher un salaire, voilà la vraie hantise. Or l’argent n’est pas en rapport direct avec le job. Fondamentalement, c’est une valeur d’échange entre individus dotés de droits similaires. Tant que l’IA ne se voit pas attribuer ces droits, elle ne perturbe en rien les échanges.
Les écarts de pouvoir sont bien davantage influencés par les différences de droits entre humains, profondes d’un coin à l’autre de la planète. L’homogénéisation des droits chez nos congénères, dont personne ne peut décemment s’effrayer, fera plus de tort aux actuels propriétaires de jobs que les futures générations d’IA, quelles que soient leurs performances, tant que ces IA restent privées de droits, et donc exclues du système d’échange.
*
IA et philosophie : le grand débat entre Raphaël Enthoven et Alexandre Cadain, Le Point 28/1/24
L’être humain, sans son environnement social et les punitions qui le guettent s’il franchit la ligne rouge, est potentiellement pire qu’un Terminator. En témoigne l’exemple de Lindsay, une collégienne de 13 ans morte le 12 mai 2023 après avoir vécu un calvaire sur les réseaux sociaux, qui l’a poussée à mettre fin à ses jours. Que s’est-il passé après son décès ? Le déferlement de haine s’est poursuivi sur Facebook des mois après sa mort, sous forme de messages anonymes promettant de déterrer son cadavre.
Conclusion ? L’anonymat désinhibe et montre des intelligences humaines bien plus effrayantes que les artificielles. Parer aux dangers des IA serait ainsi leur programmer une conscience sociale, incluant le spectre du débranchement si elles dérapent. Et est-il raisonnable aujourd’hui de permettre aux humains de débrancher leur propre conscience sociale dans l’anonymat ?