La problématique de l’intelligence artificielle, et par delà, l’impossibilité de naturaliser la signification
Une intelligence artificielle peut-elle avoir conscience d’elle même?
Au risque de briser moult illusions et de m’attirer l’ire de nombreux amoureux et amoureuses de SF, non, je ne pense pas que les androïdes ou les IA puissent rêver de moutons électriques…
Un premier angle d’attaque, le plus classique, serait d’aborder la problématique de la qualia, les IA formant un exemple parfait de zombie philosophique… (cf l’article que j’ai rédigé sur la question ici…)
Mais il est temps de montrer que j’ai plus d’une corde à mon arc, je mobiliserais donc en guise d’introduction la célèbre expérience de pensée de Searle avant de m’attaquer à un argument moins connu mais tout aussi fascinant, l’argument dit de Kripkestein
Recapitulons l’argument de Searle, la fameuse expérience de la Chambre chinoise, supposé déconstruire le fameux test de Turing…
Le test en question, tel qu’il est couramment interprété, est le suivant. Si nous arrivions à programmer une IA que nous ne pourrions pas distinguer d’un humain de l’autre côté d’un ordinateur (pensez à un compte twitter/discord ou un utilisateur d’un forum à l’ancienne)on pourrait considérer que cette IA est pratiquement consciente d’elle même, ou à tout le moins, que nous n’aurions pas plus de raison de la supposer dépourvue de conscience qu’un humain lambda que nous croisons dans la rue…
La contre attaque de Searle est la suivante, supposons qu’on prenne un humain lambda qui ne connaît pas un traitre mot de chinois, qu’on le place dans une pièce où son seul outil de communication est un ordinateur (ou si ca complique l’expérience, des messages écrits) et que de l’autre côté de la conversation, se trouve un autre humain, parlant couramment chinois et bien déterminé à savoir si c’est aussi le cas de son interlocuteur, et ce en lui posant suffisamment de questions par chat/message écrits pour lever le doute…
Oui, c’est une variante du test de Turing que Searle nous invite à imaginer, comprendre le chinois est équivalent à disposer d’une conscience et l’humain enfermé dans la pièce est l’équivalent de l’AI…
Mais voici le twist… Notre humain n’est pas enfermé dans une pièce vide, elle contient des manuels. Quel est le contenu desdits manuels? C’est simple, c’est une suite d’instruction.
Du type “Si tu vois (tel suite d’idéogrammes ) tu peux répondre par (tel suite d’idéogrammes) ou encore (tel suite d’idéogramme)”. Mais attention, à aucun moment les manuels ne mentionnent la SIGNIFICATION des idéogrammes en question.
Pour peu que la série d’instructions soit suffisamment complète et détaillé, notre humain hypothétique pourra donc avoir une conversation avec un chinois, d’une manière qui paraît naturel, et au point de le bluffer…
A tel point qu’à la fin de l’expérience, le chinois pourra conclure “Pas de doute, le gars d’en face parle chinois”.
Et ce alors même que l’humain n’a fait que manipuler des symboles dont il ne comprend pas le sens, du début jusqu’à la fin, sans avoir la moindre idée du contenu concret de la conversation qu’il vient d’avoir…
Cette série d’instructions, c’est l’équivalent du script ou du programme d’une IA, et c’est le point dévastateur de Searle. Qu’une entité passe le test de Turing ne démontre absolument pas qu’elle soit consciente puisqu’une entité dépourvu de conscience pourrait le passer.
Pour citer le brave John, une simulation parfaite d’une estomac sur ordinateur ne digérera jamais quoique ce soit, une simulation parfaite d’un incendie sur ordinateur ne consumera jamais aucun matériau…
Histoire d’enfoncer le clou, Searle poussera l’argument un cran plus loin. Supposons que nous disposions d’instrument suffisamment puissant pour percevoir les changement d’état des atomes composant une bouteille de bière…
Et supposons que nous attribuons des signification aux différents états physiques de ses particules, par ex O ou 1… Si ça vous paraît alambiqué, dites-vous que c’est le raisonnement que vous faites quand vous utilisez un ordinateur ou une calculatrice
Après tout, un ordinateur n’est rien d’autre qu’un assemblage d’éléments physiques sur laquelle on projette un système de symbole arbitraire, symbole sur laquelle on projette une signification dont ils sont dépourvues…
Si on garde cette réalité en tête, TOUT objet physique peut être conçu comme un ordinateur, et il sera toujours théoriquement possible de construire une grille d’interprétation selon laquelle cette ordinateur a une conversation avec vous…et une conversation qui sonne naturelle
Non seulement le test de Turing n’est pas pertinent pour décider si une entité est consciente d’elle même ou non, mais n’importe quel objet physique pourrait théoriquement le passer…
Jusque là tout va bien? Good, parce que ce n’était que l’échauffement, passons à une variante plus complexe. Celle de Kripkenstein puisqu’elle est né de l’interprétation que Saul Kripke a fait d’un aphorisme de Wittgenstein.
“Voici notre paradoxe : Aucune forme d’action ne peut être déterminée par une règle car toute forme d’actions peut être interprété comme étant en conformité avec une règle.” (Wittgenstein, Investigations philosophiques)
Pour illustrer cette aphorisme mystérieux, Kripke nous demande d’imaginer la situation suivante : Supposons que vous n’ayez jamais fait d’opérations mathématiques dont le résultat était égale ou supérieur à 57.
Et supposons qu’on vous demande de procéder à l’opération suivante “68+57=?” Vous répondez 125, persuadé que la réponse est correcte sur le plan mathématique et conforme à l’usage que vous avez fait du terme + jusque là…
Mais un étrange sceptique débarque, se caresse le mentons, secoue la tête et vous exprime ses doutes. Pouvez-vous êtes certains que cette signification du terme/symbole + est conforme à celle de toutes les opérations mathématiques que vous avez effectué jusque là en l’utilisant?
Peut-être que la fonction que vous avez voulu exprimer par le mot “plus” ou le symbole + n’était pas une adition comme vous le pensez maintenant, mais une opération différente, que Kripke dénomme quadition.
Elle serait définie ainsi “ X quus Y = X + Y, si le résultat est inférieur à 57, 5 quand ce n’est pas le cas.” En conséquence, peut-être que jusqu’à présent, vous aviez effectué des quaditions et non des aditions…
Comment le savoir puisque les deux type d’opérations auraient abouti au même résultat pour peu qu’il soit inférieur à 57, comme c’était le cas dans notre exemple?
En d’autres termes, il est parfaitement possible que vous ayez procédé à des quaditions jusque là, que vous ayez mal interprété l’usage du terme + que vous aviez utilisé tout ce temps, ce qui a aboutit à votre erreur… Le résultat de 68 + 57 aurait du être 5 et non 125
Si la fin de la démonstration vous paraît confuse, c’est précisément parce que le point de contention est de savoir si le mot “plus” ou le symbole + exprimait une simple additions ou au contraire une quadition.
Les symboles étant contingents et arbitraire, quus et quadition pourraient avoir la même signification que notre bonne vieille adition tandis que “plus”/+ serait le symbole de la déstabilisante quadition.
Bien évidemment, la possibilité soulevé par l’étrange sceptique paraît absurde, mais la questions serait… comment le réfuter?
Tout les éléments que vous pourriez invoquer pour démontrer que vous procédiez à des aditions dans le passé, il serait tout aussi consistant si vous aviez procédé à des quaditions comme l’affirme le sceptique.
Il ne sert à rien de dire “J’ai toujours dit 2 PLUS 2=4, tu peux chercher, je n’ai jamais dit 2 quus 2 = 4 ou toute autre fadaise du même genre.” Pourquoi? Parce que nous essayons précisément de savoir ce que vous cherchiez à signifier par le terme plus…
Interroger vos souvenirs ne servira à rien… Si les mots “je me rappelle bien que je voulais dire plus et non quus” vous traverse l’esprit, le même problème se pose. Qu’est ce que ces mots signifient pour vous?
Le sceptique conclurait ainsi “Rien dans votre passé ne peut déterminer si vous procédiez à des aditions plutôt qu’à des quaditions. On ne peut donc attribuer aucune signification précise aux opérations que vous aviez mené jusque là.”
L’exemple peut paraître aberrant au premier regard parce que nous avons tous procédé à des opérations dont le résultat excédait 57 mais ce qu’il y a d’amusant, c’est qu’il y a toujours un résultat suffisamment élevé pour qu’aucune opération mathématique de votre existence n’y aboutisse… Il suffit de choisir un nombre astronomiquement élevé et de lui donner la fonction de 57 dans la quadition.
Et la chose amusante est qu’on peut appliquer le même raisonnement à une calculatrice ou un ordinateur…ce que Kripke ne manquera pas de faire…
Rien dans la structure physique ou les output d’une machine ne peut déterminer si elle procédé à une addition ou une quadition, et ce, même si vous poussez ces output le plus loin possible pendant une sempiternité…
Si à un moment ou un autre, la machine venait à vous produire le résultat 5 au lieu du résultat escompté, vous ne pourriez pas interprétez cela comme un bug, un disfonctionnement ou de l’usure à moins de savoir quel programme la machine applique…
L’exécution d’un programme par une machine invoque une idéalisation. Dans une machine concrète comme un ordinateur, les composants peuvent fondre, les rouages se gripper, et on peut imaginer une multitude de manière dont l’appareil peut échouer à exécuter/instancier son programme idéal.
Mais considérées en elles-mêmes, ce ne sont pas les caractéristique purement physiques de la machine qui peuvent déterminer sa réussite ou son échec à exécuter son programme.
En effet, pour ce qui est de l’exécution d’un programme excentrique comme la quadition, la machine pourrait parfaitement réussir à l’exécuter, même avec des composants fondus ou des rouages grippés, si elle parvient à produire le résultat escompté, et inversement, même si tout ses composants présentaient un état physique impeccable, elle pourrait toujours échouer à exécuter son programme idéal si elle ne parvient pas à produire des résultats conforme aux règles du programme.
Le résultat produit par la machine est-il un échec à suivre un programme conforme à l’addition ou au contraire une réussite à exécuter un programme conforme à la quadition? Ce ne sont pas les propriétés physiques de la machine qui peuvent nous le dire…
Et comme le pointait Buechner, on ne peut pas contourner cette problématique par l’usage de contrefactuel du type “Si la machine avait fonctionné correctement, elle aurait produit le résultat 125 au lieu du résultat 5”, puisque le contrefactuel en question présupposerait justement que le programme idéal de la machine était une addition plutôt qu’une quadition, ce qui est précisément le point qui pose question.
Vous pourriez bien sûr interroger le programmeur pour lever l’ambiguïté, mais précisément, la solution démontrerait le point… la réponse ne se trouvait pas dans les composants physique de la machine, son comportement ou les symboles qu’elle débitent…
Car nos pensées ont une propriété dont ne disposent pas les entités physiques… elles ont une signification déterminée… même si notre attitude extérieur serait identique, que nous fassions des aditions ou des quadition, nous ne viserions pas la même chose…
Puisque c’est tout le paradoxe, à proprement parler, le plus sophistiqué des ordinateurs ne calcule pas… c’est une version élaboré d’un aide mémoire sur lequel nous tracerions des symboles arbitraire de type 2 + 2 =4…
Symbole qui peuvent vouloir tout dire, et donc au final…ne signifient rien par eux même… On pourrait donc adopter la conclusion de Vallicella à la question de la possibilité d’une conscience artificielle…
Peut-être qu’une machine prendra réellement conscience d’elle même un jour, mais nous n’aurons aucun moyen de le savoir… et même si c’était le cas, cela ne nous donnerait aucune réponse à cette question lancinante
Comment une entité physique peut-elle être doté d’une conscience?