L’Intelligence Artificielle en questions 

Une spécialité qui se cherche

Ay. Poulain Maubant
19 min readMay 8, 2014

(crédit photo Norbert Wiener, NYT : “In 1949, He Imagined an Age of Robots”)

Ce texte est la première partie du chapitre I de ma thèse soutenue en 1995 sur l’Hybridation en Sciences Cognitives. Je la publie pour pouvoir la réactualiser avec l’aides des lecteurs. Découvrez pourquoi et comment dans cet autre document, puis bonne lecture…

(todo : ajouter illustrations et relier + de références)

On fait croire que l’on sait parce qu’on connaît les mots-clé et on croit savoir parce que l’on sait déisgner. [Gionetti, 1990, in Les origines du savoir : Des conceptions des apprenants aux concepts scientifiques].

[Dans cette thèse] nous avons choisi d’identifier l’Intelligence Artificielle comme étant une spécialité, et non pas une science ou une discipline, suivant ainsi l’avis de Daniel Andler et Jacques Perriault dans [Andler & Perriault, 1984].

L’Intelligence Artificielle est une spécialité encore jeune [nous sommes en 1995 quand j’écris ce texte], et déjà elle possède une histoire très riche, dont nous allons voir quelques traits dans cette première partie. Elle plonge une partie de ses racines très loin dans l’histoire des sciences, et une autre partie dans des disciplines connexes ; elle n’est donc pas facile à cerner. Nous allons cependant tenter cet exercice, avec comme objectif de dégager les fondements de l’hybridation.

Les défis de l’Intelligence Artificielle

Définir l’Intelligence Artificielle (I.A.) n’est pas une entreprise facile ; nous ne nous hasardons pas à le faire. Si nous en faisons une lecture dans le temps (voir infra dans ce document “fondements des sciences cognitives”), nous pouvons voir qu’en fonction des difficultés qui ont surgi, les objets d’étude de cette spécialité ont évolué. Si nous examinons qui sont les spécialistes de l’IA, nous observons qu’ils proviennent de nombreuses disciplines différentes (voir infra dans ce document “la nébuleuse des sciences cognitives”), et que chacun a apporté dans l’Intelligence Artificielle ses propres croyances et ses propres désirs.

Il est aussi possible de mener une discussion philosophique sur l’Intelligence Artificielle, permettant de mettre en lumière ces croyances et ces désirs, et de mieux cerner les possibilités de réalisation (et d’effectuation) de ces désirs.

Intelligence : la définition impossible

Pour donner toute la mesure de la difficulté à cerner ce qu’est l’intelligence, nous citons un large extrait d’un texte de Michel Imbert, [Imbert, 1992, Introduction aux Sciences Cognitives], pp. 49-50. Nous avons souligné les aspects que nous retrouverons plus loin dans ce mémoire.

Je n’essayerai pas, n’étant ni assez naïf ni suffisament présomptueux, de donner de l’intelligence une définition liminaire formelle : pour s’entendre sur ce que cette notion recouvre, peut-être suffit-il de décrire ce qui fait tout être que l’on s’accorde à reconnaître comme intelligent. Il découpe le monde complexe dans lequel il vit en sous-ensembles plus simples, connaissables, et utilise cette connaissance pour décider d’une action adaptée et en planifier le décours. Le traitement par les systèmes sensoriels de l’information recueillie sur l’environnement est ce qui permet en premier lieu d’en structurer la connaissance utile. La planification, qui est le processus par lequel sont combinées les connaissances utiles pour décider du meilleur déroulement possible de l’action en vue d’atteindre une certain but, implique la capacité de représenter de façon flexible et adaptative l’environnement. Cette capacité, qui n’est autre que celle d’apprendre, suppose l’assimilation de nouvelles informations, leur stockage et leur accomodation en vue de modifier les structures de connaissance, les stratégies perceptives et l’action. Cet apprentissage lui-même suppose, pour être efficace, la communication ; les informations doivent en effet circuler entre les structures de connaissance et les individus. Il ne fait guère de doute que le langage, moyen de représentation des connaissances et de communication par excellence, confère à notre espèce des propriétés remarquables et fait du cerveau humain le dispositif le plus intelligent jamais rencontré ou fabriqué. La perception, l’action finalisée, l’organisation conceptuelle, le raisonnement, l’apprentissage, la communication, le langage sont ainsi autant d’aspects que recouvre le concept de cognition.

Les rapports entre une intelligence naturelle et une intelligence artificielle

Nous ne souhaitons pas entrer plus avant dans le débat qui peut exister autour de la caractérisation de l’intelligence (dans les espèces supérieures(!), inférieures…), de son éventuelle mesure, et de sa détection (par des tests comme celui de Turing). Si ces questions se posent, c’est que l’on désire comparer l’application d’un concept défini pour l’humanité (et l’est-il vraiment ?) à d’autres êtres (vivants ou artefacts) de nature (parfois fondamentalement) différente. Mesurer, comparer l’intelligence des êtres humains nous semble déjà un exercice périlleux : l’intelligence n’est ce qu’elle est qu’au sein d’une culture, et elle se manifeste différement selon le sexe, l’âge, les préoccupations, les connaissances… et pourtant, on s’accorde à dire que l’Homme est intelligent, sans examiner toutes ces particularités.

Pour reprendre William James, cité par [Edelman, 1992. Biologie de la conscience], qui le disait à propos de la conscience, l’intelligence serait une chose dont le sens “nous est connu tant que personne ne nous demande de le définir”.

Tenter de projeter notre vue de l’intelligence sur d’autres animaux, ou sur des artefacts non encore conçus, est un exercice qui ne devrait pas avoir lieu d’être. En ce qui concerne les artefacts, l’“intelligence’’ qu’ils manifesteront devra être reconnue par les êtres humains sur leurs actions ; supposer a priori, avec le cogniticien, qu’ils auraient une (notre) intelligence est une démarche pernicieuse. Cette “intelligence’’ sera le produit de leur propre appréhension du monde et de leur utilité

Pour ces raisons, le terme “Intelligence Artificielle’’ est bancal. D’un côté il suppose que l’“Intelligence Naturelle’’ existe de manière caractérisable, et d’un autre côté, dès que l’on comprend que cette caractérisation est une entreprise difficile, il n’est pas suffisament explicite pour signifier qu’il peut exister un autre type d’intelligence, qui sera jugé avec le même flou qui nous fait connaître l’intelligence naturelle sans pouvoir la définir, et qui est applicable aux artefacts.

Intelligence collective et intelligence isolée

Une seconde difficulté surgit quand on désire cerner l’Intelligence. Si les caractères qui la sous-tendent sont le produit d’une évolution, ils sont aussi activés par les interactions avec ses semblables. Ceci est particulièrement vrai en ce qui concerne les relations parents — enfants (chez les hommes comme chez les animaux), et se retrouve dans tous les processus d’éducation. Les interactions sociales sont aussi présentes dans les apprentissages par imitation et les phénomènes de mode.

Il existe un fort courant de recherche sur l’intelligence collective, qui consiste à faire coopérer des “agents cognitifs’’ minimaux de manière à obtenir un comportement global qualifié d’intelligent. Chaque agent isolé n’aurait pu réaliser ce comportement seul. C’est le paradigme de la fourmillière.

Nous n’avons pas choisi dans le cadre de cette thèse de nous rattacher à ce paradigme, bien que les principes de l’hybridation puissent s’y développer tout aussi utilement. Nous avons préféré étudier la faisabilité de l’émergence isolée de processus cognitifs, l’enchâssement social étant assuré, si besoin est, par les relations particulières s’établissant entre le concepteur d’une application hybride et le système qu’il développe.

Intelligence Artificielle : les défis proposés

Le terme “Intelligence Artificielle’’ est attribué à John McCarthy, créateur du LISP, ce qui donne une idée des orientations initiales de ce champ de recherches. Il n’existe pas vraiment d’acte de naissance de cette spécialité, mais on peut situer raisonnablement le baptême lors de l’été 1956 à Dartmouth, pendant lequel un groupe de futurs grands noms de l’I.A. se réunirent pour deviser de “la possibilité de produire des programmes qui se conduiraient ou penseraient intelligement’’, [Gardner, 1985, The Mind’s New Science: A History of the Cognitive Revolution], chap. 6. On voit que, dès le début, la barre était placée très haut.

Peut-être parce que les acteurs de l’I.A. proviennent d’horizons différents, comme nous le verrons plus loin, ou en raison des difficultés à définir l’Intelligence Naturelle, ou bien encore par la nature même des défis initiaux, des prédictions un peu trop rapides et des écueils rencontrés, l’Intelligence Artificielle est presqu’aussi malaisée à définir que l’Intelligence Naturelle. On s’accorde cependant sur la proposition suivante, Gardner, op.cit. :

“L’Intelligence Artificielle cherche à produire, sur un ordinateur, un ensemble de sorties (pattern of outputs) qui seraient considérés comme intelligents, s’ils étaient produits par des êtres humains.’’

Cette proposition est légèrement restrictive, car elle ne semble considérer que l’intelligence humaine et seulement sa simulation sur des ordinateurs (classiques). La Vie Artificielle trouve aussi ses sources dans l’étude des comportements intelligents des animaux dits inférieurs, et simule ces comportements sur des ordinateurs moins classiques, puisque possédant par exemple des extensions sensorielles. Elle donne cependant une idée assez claire des ambitions de l’I.A.

Ambiguïtés

À partir de là, plusieurs ambiguïtés surgissent. L’effectuation informatique peut en effet conforter par l’expérience les théories qui se proposent d’expliquer le fonctionnement des processus cognitifs (c’est-à-dire de l’ensemble des actes internes et des actes effectués par le siège d’une intelligence isolée) ; elle peut aussi être la réalisation effective de l’artefact intelligent. Ce qui peut sembler une distinction futile est en réalité une distinction utile : dans un cas, l’effectuation informatique est un simple outil, dans l’autre elle est l’objet construit. Ignorer cette distinction conduit à confondre l’outil et l’oeuvre.

En procédant ainsi, on a conclu trop rapidement que le programme informatique comprenait ce qu’il manipulait, et que les machines étaient capables de pensée. (Comme l’intelligence et la conscience, la pensée est une notion typiquement humaine. Nous verrons plus loin avec Edleman (“cartes de l’activité de cartes”) ce qui pourrait tenir lieu de pensée artificielle (artefactuelle))

Selon la position que l’on prend sur le point précédent, on peut considérer que l’I.A. se doit de créer des simulations exactes des processus cognitifs humains, ou bien l’on peut se contenter de programmes conduisant à des “conséquences intelligentes’’, Gardner, op.cit., p. 140. Dans un ordre d’idées similaire, on peut estimer que l’I.A. doit produire des systèmes experts possédant des connaissances poussées dans leur domaine, mais inutilisables ailleurs, ou bien des systèmes généraux, capables de résoudre quantité de problèmes de classes diverses.

Ces différences de point de vue sur les ambitions de l’I.A. mettent en lumière la difficulté à définir le champ de l’Intelligence Artificielle. Les dissensions qui ont surgi sur ces bases d’ambiguïtés, ont fortement contribué à affaiblir la position de nouvelle science que pouvait désirer l’I.A. à l’origine. Ses détracteurs estiment que l’I.A. n’est qu’une forme de génie appliqué, sans bases scientifiques propres réelles. Le défi principal de l’I.A. serait peut-être bien de réaffirmer l’objet (le défi immense) de sa recherche, et cesser d’apparaître comme un “prestataire de services’’, [Jorrand, 1995, Bulletin de l’AFIA, éditorial].

Ambitions

La plus célèbre attaque de l’Intelligence Artificielle provient de Hubert Dreyfus avec son livre au titre explicite : “What computers can’t do. The limits of Artificial Intelligence’’, [Dreyfus, 1984, Intelligence Artificielle, Mythes et Limites]. Daniel Andler et Jacques Perriault soulignent dans leur avant-propos à ce livre les difficultés à cerner l’Intelligence Artificielle. Produit des différentes phases de l’histoire de l’I.A., ils dégagent trois ambitions principales à cette spécialité :

L’Intelligence Artificielle est :

  • une technologie de la connaissance, nouvelle science de l’ingénieur,
  • mais aussi la science générale du traitement de l’information (par l’homme ou par la machine),
  • et encore une théorie de l’homme et des processus cognitifs.

Ces trois ambitions n’étant ni incompatibles ni indépendantes, nous ne pouvons les énoncer en termes d’exclusion.

Objectifs

Comme la définition de l’Intelligence Artificielle est, par nature, difficile à trouver, comme ses ambitions sont nombreuses et très étendues et comme les défis qu’elle compte relever sont particulièrement osés, nous proposons de cerner l’ par les objectifs qu’elle se donne. Nous en voyons trois : aider / se substituer à / améliorer les performances de l’être humain. Dans cette optique, l’I.A. est un champ technologique sur lequel se développent les artefacts qui permettent d’atteindre ces objectifs. Certaines des ambitions de l’I.A. rappelées plus haut peuvent être une voie vers ces objectifs, mais ces derniers restent l’objet principal de la réflexion en I.A. C’est ce point de vue sur l’Intelligence Artificielle que nous adoptons.

Pour ensemencer ce champ technologique, l’Intelligence Artificielle va faire appel à l’ensemble des domaines scientifiques qui constituent les Sciences Cognitives.

La nébuleuse des Sciences Cognitives

L’Intelligence Artificielle est courament vue comme une branche de l’Informatique. Mais elle possède ceci de particulier que son champ de recherche alimente à la fois l’Informatique (par la nécessité de développer des architectures, matérielles ou logicielles, nouvelles) et l’ensemble des Sciences Cognitives dont elle est un des membres.

Les Sciences Cognitives…

Serait-ce une caractéristique du domaine, ou un témoin de la jeunesse de ce champ de recherche et de son étendue ? Les Sciences Cognitives ne se laissent pas plus facilement définir que l’Intelligence Artificielle. Citons Daniel Andler, dans l’introduction de [Andler, 1992] :

“Or les sciences cognitives ne se laissent définir, caractériser ou même circonscrire ni par un objet d’étude, ni par une hypothèse fondamentale, ni par une tradition. Chacune de ces dimensions est néanmoins indispensable pour cerner, dans son état présent, le complexe qu’elles constituent.’’

Andler propose cependant dans l’Encyclopedia Universalis (édition 1989) cette définition :

“Les sciences cognitives ont pour objet de décrire, d’expliquer et le cas échéant de simuler les principales dispositions et capacités de l’esprit humain -langage, raisonnement, perception, coordination motrice, planification…’’

On retrouve là quelques-uns des éléments de la définition de l’intelligence par Imbert, page 13, qui donne lui aussi une définition des Sciences Cognitives :

“Par sciences cognitives, il faut entendre l’étude de l’intelligence, notamment de l’intelligence humaine, de sa structure formelle à son substratum biologique, en passant par sa modélisation, jusqu’à ses expressions psychologiques, linguistiques et anthropologiques.’’

Autant la définition d’Andler souligne le besoin de reproduire les capacités intelligentes humaines qui hante certaines branches des Sciences Cognitives, et en particulier l’I.A., autant celle d’Imbert souligne le point commun à toutes ces sciences qui est celui d’étudier, à un niveau ou à un autre, l’expression, le fonctionnement et les bases biologiques des processus cognitifs (humains ou non).

Nous verrons plus bas dans la section “Fondements des Sciences Cognitives” quels sont les piliers des Sciences Cognitives, ce qui nous permettra de mieux apprécier ces définitions.

En 2014 : lire la définition des Sciences Cognitives sur Wikipedia

…sont un appel à l’hybridation

Les Sciences Cognitives regroupent un certain nombre de sciences et de disciplines qui forment son noyau dur. Il s’agit des neurosciences (neuroanatomie, neurobiologie, neurochimie), de la psychologie, de l’intelligence artificielle, de la philosophie, de la linguistique, de la logique, de l’anthropologie et des sciences sociales. Imbert, op.cit., rappelle que dans les neurosciences personne n’est plus spécialiste : il est vital, pour avancer dans la recherche sur le système nerveux, de posséder des compétences dans plusieurs domaines (anatomie, physiologie, chimie..). Les Sciences Cognitives se sont aussi constituées autour de cette idée fondamentale : ses différents membres ne pourront apporter des réponses nouvelles aux questions qui se posent sur la nature et le fonctionnement des processus cognitifs que s’ils s’interpénètrent.

La fécondité d’une telle approche multidisciplinaire sera assurée par tous ces chercheurs qui s’aventurent hors de leurs chemins traditionnels, dans la quête de nouveaux champs d’exploration où l’on peut hybrider toutes les espèces d’idées plus classiques. Comme l’Intelligence Artificielle a créé le métier de cogniticien, l’ingénieur des connaissances, nous proposons d’appeler neuroticien l’ingénieur des Sciences Cognitives, suffisament versé dans plusieurs domaines de ces sciences pour pouvoir enrichir les uns par des emprunts conceptuels et techniques dans les autres. De plus, le neuroticien, comme le cogniticien avec son système expert, devra être capable de concevoir, maintenir et assister un système hybride.

Nous verrons [dans un autre document] ce que recouvre exactement le terme “hybridation’’, et [dans un autre document] ce que signifie “assister un système hybride’’. Pour l’instant, nous n’avons fait que donner une première idée de la notion d’hybridation.

Fondements des Sciences Cognitives

Nous n’avons pas pour ambition de présenter ici une Histoire des Sciences Cognitives. Le lecteur intéressé est invité à se reporter à [Gardner, 1985, op.cit.] et [Dupuy, 1994, Aux origines des sciences cognitives]. Nous allons en revanche montrer que l’idée d’hybridation aurait pu établir ses racines dès les origines de ce groupement de sciences. Si elle n’a pu le faire, c’est à la suite de choix originels motivés par des obstacles qui se sont dressés très vite, et qui n’ont pu être attaqués par les moyens disponibles à l’époque.

Les piliers des Sciences Cognitives

Le Cognitivisme Les Sciences Cognitives sont principalement animées par le paradigme du cognitivisme, que l’on appelle aussi en I.A. approche classique. Ce paradigme donne une certaine structure à la nébuleuse des Sciences Cognitives, mais il serait faux de croire que ces dernières se réduisent à celui-ci. Le paradigme cognitiviste s’articule autour de trois propositions (Andler, op.cit.) :

  1. Les processus cognitifs peuvent être décrits à deux niveaux indépendants: d’une part le niveau physique, c’est-à-dire le matériel qui supporte les dits processus ; d’autre part le niveau fonctionnel, c’est-à-dire les effets produits par ces processus et les modèles qui peuvent rendre compte de ces effets.
  2. En ce qui concerne le niveau fonctionnel, les systèmes cognitifs sont caractérisés par des états internes et par l’ensemble des processus qui permettent de passer d’un état à un autre.
  3. Les états internes sont manipulables. Il existe un langage, des symboles et des règles de logique qui peuvent rendre compte des processus cognitifs. Ces derniers sont réductibles à un ensemble d’opérations primitives dont l’assemblage permet une description algorithmique de ces processus.

On distingue deux sortes de cognitivisme, [Weil-Barais, 1993, L’homme cognitif, PUF] : le cognitivisme structural (terme 1) et le cognitivisme computationnel (termes 2 et 3). La première approche étudie les structures cognitives et les mécanismes de fonctionnement de ces structures, la seconde étudie la représentation des connaissances calculables et les règles de calcul.

Le cognitivisme structural, et en particulier la psychologie gestaltiste, ont établit des règles (par exemple : “un ensemble de points ayant la même trajectoire sont vus comme appartenant à un même ensemble’’) qui permettent de saisir les formes que les individus, confrontés à leur environnement, construisent. Contrairement au behaviorisme, il s’est intéressé à la manière dont un système cognitif organise son environnement. Malheureusement, l’état de la science à l’époque du gestaltisme ne donnait que peu d’armes pour défendre des positions qui sont donc restées spéculatives.

À l’heure actuelle (1995, rappelons-le), le pont entre psychologie et neurosciences pourrait être construit plus solidement, et redonnerait du souffle à cette approche.

Compte tenu du ralentissement des recherches en cognitivisme structural, le cognitivisme computationnel a pu se développer tout à son aise. Cette approche considère que le cerveau peut être modélisé par un système de traitement de l’information. Cette première idée suppose donc qu’il manipule essentiellement des symboles. Le cerveau humain n’est donc qu’une machine de Turing de plus, c’est-à-dire un système matériel qui serait équivalent à un ordinateur. Une troisième idée est que les symboles sont manipulés au sein de règles, justement celles qui sont fournies par la logique propositionnelle dont l’informatique permet le calcul par l’intermédiaire de langages adéquats. L’Intelligence Artificielle est l’implémentation de cette approche.

Le connexionnisme. Le connexionnisme est le deuxième paradigme que l’on peut identifier. Ce paradigme est inspiré des observations effectuées en neurobiologie, ce qui ne signifie pas qu’il soit une description des phénomènes neurobiologiques (on abordera dans un autre document “les niveaux d’analyse des processus cognitifs”).

Les systèmes relevant de ce paradigme ne se reposent pas, ou pas seulement, sur l’utilisation de symboles et de règles. La connaissance y est codée de manière distribuée sur un ensemble d’unités (de calcul) élémentaires : elle est contenue dans un vaste ensemble de paramètres appelés poids synaptiques (ou toute autre grandeur qui correspond à ces poids, selon le type de l’algorithme connexionniste envisagé) et dans la dynamique interne du système qui en résulte. Le parallélisme y tient une part fondamentale, mais il serait faux de penser que cette part est ce qui le distingue particulièrement du cognitivisme, [Cummins & Schwarz, 1992, in Andler 1992, Introduction aux Sciences Cognitives]. En revanche, il est la source de nouvelles possibilités.

Le connexionnisme revêt également deux habits (Cummins, op.cit.) : le connexionnisme computationnel et le connexionnisme non computationnel.

Le connexionnisme computationnel se développe autour des hypothèses cognitivistes qui concernent la représentation et le calcul. Les entrées et les sorties des réseaux connexionnistes sont considérées comme des représentations, et parfois même les unités cachées de ces réseaux (on en reparlera dans un autre document). De plus, les “transitions entre états représentationnels sont computationnellement réglées’’. C’est ainsi que l’on peut parler d’algorithmes connexionnistes, précisant ainsi que la fonction reliant les entrées aux sorties du réseau est calculable.

Nous ne pensons pas pour autant que ce connexionnisme-ci soit une branche du computationnalisme, au sens où ce ne serait rien d’autre qu’une nouvelle désignation des idées du cognitivisme. En effet, la marge qui sépare ce connexionnisme du connexionnisme non computationnel est souvent mince, et sa largeur ne dépend que du vocabulaire utilisé dans les articles qui en rendent compte. Enfin, l’hybridation qui jette des ponts entre cognitivisme et connexionnisme, tend aussi à réduire cette marge.

Le connexionnisme non computationnel s’affirme dans la croyance suivante : que les fonctions cognitives ne sont pas forcément calculables, et que le connexionniste peut très bien ne pas être contraint à spécifier un algorithme (au sens donné plus haut). Il suffirait de spécifier seulement l’enveloppe des dynamiques possibles, et laisser les réseaux établir leurs propres modes de représentation.

Les conférences Macy

La cybernétique est l’ancien nom des Sciences Cognitives. Ce terme est le nom de code que se sont donné les participants des conférences connues sous le nom de conférences Macy, [Dupuy, 1994]. Se tenant de 1946 à 1953, elles ont réuni régulièrement les grands noms scientifiques de l’époque, mathématiciens, philosophes, psychologues, logiciens, anthropologues, économistes et chercheurs des neurosciences. La guerre étant terminée, la fondation Macy avait repris l’idée de 1942 de McCulloch de monter un cycle de conférences sur les idées nouvelles concernant la cognition.

La première conférence reposait sur le célèbre article de Warren McCulloch et Walter Pitts, [McCulloch & Pitts, 1943, A logical calculus of the ideas immanent in nervous activity]. Il y était démontré l’existence en principe d’une machine logique équivalente à la machine de Turing, mais dont la structure et le fonctionnement sont considérés comme un modèle de l’anatomie et de la physiologie du cerveau. Les principaux acteurs des conférences étaient déjà présents, notamment Norbert Wiener.

Si nous mentionnons les conférences Macy, c’est qu’elles ont été le creuset des premières réflexions sur les Sciences Cognitives, à défaut d’un centre de recherche bien localisé (qui aurait pu s’établir au MIT). On y rencontre déjà deux courants de pensée : le premier (McCulloch) considérant l’incarnation de l’esprit dans la machine, et le second (Wiener) voyant la machine comme le modèle de l’organisme.

Les personnalités des différents participants et le déroulement des conférences et des symposiums organisés en parallèle permettent de comprendre pourquoi et comment les deux paradigmes, cognitiviste et connexionniste, ont émergé et ont commencé à s’éloigner très tôt. Citons l’historien des sciences (Dupuy, op.cit., p. 58) :

``[…] l’intelligence artificielle naissante s’engageait résolument sur d’autres voies […]. Alors que la cybernétique dans sa seconde phase conservait l’ambition de modéliser l’intelligence naturelle et maintenait le contact avec la neurologie, l’intelligence artificielle se délivrait de cette contrainte et liait son sort au développement des ordinateurs.’’

Quelques fissures apparaissent

Dès l’époque des conférences Macy, en leur sein ou en dehors, des fissures sont apparues sur l’édifice que tentaient de constuire les cybernéticiens. Ces fissures se sont principalement constituées autour des couples que nous présentons en deuxième partie de ce chapitre.

Nous voulons ici relater deux estocades qui ont été portées, chacune sur l’un des deux paradigmes. La première, lancée très tôt, a démontré les faiblesses du connexionnisme, ou plutôt celles des implémentations qu’il proposait. La seconde, lancée contre l’I.A. classique, a, nous le pensons, contribué à rééquilibrer les choses. Ces deux estocades ont continué à faire des vagues dans les années qui ont suivi, permettant la création de débats et d’échanges très riches. De part et d’autre, les idées ont pu évoluer, et l’hybridation trouve dans cette dynamique de réflexions un terreau très fertile pour nourrir ses propres théories.

Le perceptron face à Minsky et Papert

Le connexionnisme s’est confronté très tôt à une impasse technologique, dès les années 60, [Booth, 1986, L’échec de l’intelligence artificielle et le connexionnisme. Technologos]. Conscient de cette impasse, les talentueux Minsky et Papert ont produit un livre, simplement intitulé Perceptrons, dans lequel ils démontrent proprement les limitations du connexionnisme, [Minsky & Papert, 1969, Perceptrons, MIT Press].

Le livre de Minsky et Papert n’est pas le seul responsable du recul de l’hypothèse connexionniste. D’après nos lectures, nous avons estimé que deux autres facteurs avaient pu contribuer à ce recul. Le premier est le foisonnement d’algorithmes connexionnistes qui sont apparus à cette époque. L’hypothèse connexionniste s’éparpillait un peu, et estimait peut-être trop rapidement qu’elle pouvait résoudre tous les problèmes. Nous devons prendre garde, actuellement, de ne pas nous éparpiller à nouveau en proposant le connexionnisme “à toutes les sauces’’. Il faut savoir séparer les systèmes connexionnistes qui ont une véritable connotation cognitive de ceux qui ne sont que du traitement du signal.

Le deuxième facteur provient de l’opinion publique puritaine. Il est fort probable que la recherche d’un esprit artificiel, et donc l’imitation ultime de l’oeuvre de Dieu, a été mal acceptée par l’Amérique de l’époque, et que c’est l’hypothèse connexionniste, si proche de la nature, qui en a fait les frais. Cela a permis aux écoles européennes de pouvoir développer plus facilement cette hypothèse, ce qui finalement a été profitable à notre continent. D’autre part, l’opinion publique était aussi “traumatisée’’ par l’idée de robots à la Frankenstein (il suffit pour s’en convaincre de lire les livres de science-fiction de l’époque, et de regarder certains films ou certains comics.).

Le livre de Minsky et Papert tombait à pic dans cette Amérique. Fort bien écrit, il contient de nombreuses démonstrations magistralement menées des faiblesses du connexionnisme de l’époque. Il se termine par une hypothèse dévastatrice, puisqu’elle a poussé le connexionnisme dans une ombre d’une quinzaine d’années : celle que leurs démonstrations pouvaient s’étendre aux systèmes connexionnistes multi-couches.

Alors que ce n’était qu’une intuition, qui s’est révélée fausse, on le sait, l’hypothèse connexionniste a presque été complètement abandonnée sur la base des résultats de ce livre.

Dans la troisième édition de ce livre, parue en 1988, les auteurs ont ajouté un épilogue qui, cette fois, s’attache à examiner les limitations des résultats de l’équipe PDP, ([Rumelhart et al. 1986b, Parallel Distributed Processing: Exploration in the Microstructure of Cognition, vol1&2 MIT Press]). Il nous semble que cet épilogue, qui épingle quand-même les travaux des connexionnistes (en particulier la lenteur de l’algorithme phare de la rétropropagation du gradient, qui est résolue par ailleurs), accepte les bases d’une vision hybride des choses.

L’I.A. classique face à Dreyfus

Un autre ouvrage a également été célèbre au sein de la communauté de l’ Il s’agit du livre de Hubert Dreyfus, intitulé pour sa part “Intelligence Artificielle, mythes et limites’’, [Dreyfus, 1984]. L’hypothèse cognitiviste, la seule encore en lice à cette époque, a mieux résisté que l’hypothèse connexionniste à l’attaque précédente.

Dreyfus propose une critique philosophique (qui ne se veut pas malveillante) de l’Intelligence Artificielle classique. Il analyse les travaux réalisés dans les années 60, et observe que les résultats ont été “très en deçà des espérances’’ et des annonces effectuées. L’I.A. s’occupe ensuite de la représentation des connaissances, sur une base symbolique. Malheureusement, et Dreyfus le démontre bien, cette approche a ses propres limitations, et les postulats sur lesquels elle veut se reposer ne sont pas les bons.

Dreyfus n’a pas désiré pour autant reléguer l’approche classique à l’ombre de laquelle se trouvait alors le connexionnisme. Il propose de se reconcentrer sur trois “secteurs négligés’’ : celui du corps, “qui confère à notre expérience un ordre et une unité’’, celui de la situation, qui fournit un contexte dans lequel le comportement se maintient sans recourir à des règles, et celui des intentions qui met en lumière dans cette situation certains éléments perçus alors comme “pertinents et accessibles’’. Nous retrouverons ces idées [dans un autre document].

Les différents débats qui animent les Sciences Cognitives s’articulent souvent autour de thèmes bipolaires. Nous allons approfondir dans le prochain document quelques-uns de ces tandems, et en particulier voir s’il est possible d’établir des compromis au sein de ces couples.

Stay tuned !

--

--

Ay. Poulain Maubant

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV