La prochaine étape de l’intelligence artificielle sera la conscience artificielle

Stephane Mallard
10 min readFeb 5, 2017

--

Ex Machina — un programmeur teste ses algorithmes de conscience artificielle dans un robot

“Les machines vont emprunter le même chemin que l’évolution des êtres humains, jusqu’à devenir conscientes et être capables de se développer toutes seules sans que l’homme ne puisse ni les comprendre, ni en garder le contrôle”.

Voilà comment Ray Kurzweil décrit la prochaine étape du développement de l’intelligence artificielle. Le personnage est controversé, il est connu pour ses positions transhumanistes en faveur de l’immortalité et de la convergence entre l’homme et la machine, mais il est aussi directeur de l’ingénierie chez Google. Autre spécialiste de l’intelligence artificielle et des sciences cognitives du MIT, Marvin Minsky déclarait lui aussi que “rien ne pourrait empêcher les machines d’atteindre et de dépasser l’intelligence humaine à moins qu’on ne les en empêche”. Ajouté aux prises de positions récentes de Bill Gates, Stephen Hawking et Elon Musk pour mettre en garde sur les progrès de l’intelligence artificielle, cela commence à devenir sérieux.

L’intelligence artificielle explose

Des machines conscientes, cela parait invraisemblable et pourtant, nous sommes à un tournant. L’intelligence artificielle décolle. Pas un seul jour sans qu’un nouveau progrès de l’intelligence artificielle soit annoncé. En 2012, Google apprenait à son intelligence artificielle à reconnaître un chat en regardant des vidéos sur Youtube, en 2016 Alpha Go battait le meilleur joueur de Go au monde alors qu’on pensait que ça n’arriverait pas avant au moins plusieurs décennies, Watson diagnostiquait une leucémie rare sur un patient au Japon en quelques minutes alors que les médecins étaient incapables de poser une diagnostic, en 2017 Libratus pulverisait les joueurs de Poker, et cela n’est pas prêt de s’arrêter. La course à l’intelligence artificielle entre les géants du web est lancée.

Le problème de l’intelligence artificielle est le problème de l’intelligence elle-même

Cette course à l’intelligence artificielle n’est pas nouvelle, elle date des débuts de l’informatique. Et dès le début plusieurs approches ont été proposées pour créer de l’intelligence artificielle. D’abord d’imiter le fonctionnement de l’intelligence humaine. Problème : on ne savait pas et on ne sait d’ailleurs toujours pas comment elle fonctionne (même si les découvertes sont fulgurantes et qu’elles soulèvent de nouvelles questions). Ensuite de répliquer le cerveau humain lui-même avec des transistors ou des algorithmes. Il y a des tentatives, mais pareil encore trop d’inconnues sur son organisation et son fonctionnement, et quand bien même on en aurait une parfaite connaissance, il serait trop complexe et surement peu efficace d’utiliser cette approche. Et finalement permettre à la machine de réaliser les mêmes fonctions que l’intelligence humaine (reconnaître son environnement, manipuler le langage, mémoriser, contextualiser, raisonner, et bien d’autres…) sans forcément savoir comment l’intelligence humaine y parvient. L’analogie souvent utilisée dans les cours d’intelligence artificielle est celle du vol artificiel. L’intelligence artificielle serait à l’intelligence humaine ce que le vol d’un avion (vol artificiel) serait au vol d’un oiseau (vol naturel) : les deux fonctionnent différemment et ont deux substrats différents (biologique vs métallique) mais atteignent le même résultat, ils volent. Même si c’est cette dernière approche qui aujourd’hui produit de nombreux résultats, en réalité toutes ces approches combinées aux recherches en science cognitives, en philosophie, en psychologie, en sociologie et en linguistique se nourrissent et s’influencent.

Une inversion d’approche qui amorce cette révolution

Cette révolution de l’intelligence artificielle, on la doit à une inversion d’approche. Dans l’informatique traditionnelle, on programmait des logiciels selon des règles pour effectuer des tâches selon des conditions et des scénarios bien définis à l’avance. La machine ne faisait qu’exécuter ce que vous lui aviez demandé de faire. C’est cette approche qu’on a voulu utiliser pour créer de l’intelligence artificielle. Problème : on ne connaissait pas et ne connait toujours pas ces règles de “fonctionnement” de l’intelligence. Alors on a inversé l’approche, au lieu de chercher à programmer des machines selon des règles pour imiter l’intelligence humaine, on a demandé à la machine de trouver elle-même les règles à partir d’exemple. En fait exactement comme les bébés lorsqu’ils apprennent à parler : ils sont bombardés toute la journée de gens qui parlent autour d’eux, et à force d’être exposés au langage, ils conceptualisent les règles de la grammaire qui leur permettent ensuite de parler sans même savoir qu’elles existent. C’est grâce à ce changement d’approche qu’aujourd’hui on peut entraîner des intelligences artificielles à réaliser des tâches très différentes.

Le Deep Learning et le Reinforcement Learning : deux approches au potentiel illimité

D’un point de vue algorithmique, on utilise le Deep Learning pour entrainer des intelligences artificielles à identifer des caractéristiques, des concepts de haut niveau dans les données : c’est grâce au Deep Learning que les géants du web identifient ce qui se trouve sur les photos, il suffit de montrer beaucoup d’exemples à l’algorithme et de le superviser en lui indiquant ce qui se trouve sur les photos pour qu’il soit capable ensuite de le faire tout seul sur de nouveaux exemples. Un autre type d’algorithme très prometteur en ce moment, c’est le Reinforcement Learning. Dans cette approche, on donne à l’algorithme un environnement avec des contraintes, des capacités d’actions et un objectif à atteindre, et on va le laisser s’entraîner par essais-erreurs et par exploration à atteindre son objectif tout seul. C’est par exemple avec du Reinforcement Learning qu’on apprend à un algorithme à jouer à Super Mario tout seul, et d’ailleurs il découvre vite comment jouer de manière totalement optimale. Et lorsque l’on combine Deep Learning et Reinforcement Learning, on obtient des algorithmes capables à la fois de reconnaître leur environnement et d’atteindre des objectifs. C’est grâce à la combinaison des deux qu’Alpha Go a battu le meilleur joueur de Go au monde l’an dernier. Mais à l’avenir le potentiel est bien plus prometteur puisqu’on a désormais compris qu’on pouvait entraîner des intelligences artificielles à réaliser n’importe quel type de tâche en leur donnant un environnement et un objectif à atteindre par entrainement. C’est comme si on considérait chaque objectif à atteindre comme un jeu vidéo avec un champ de vision. L’an dernier l’organisation OpenAI a lancé la plateforme Universe pour que chacun puisse apprendre à des intelligences artificielles à réaliser de nouvelles tâches dans tous les domaines (aussi bien jouer à des jeux vidéos que remplir un formulaire sur internet). Demain plus personne ne programmera des machines avec du code, nous pourrons tous entraîner des intelligences artificielles à réaliser des tâches.

Vers une intelligence artificielle unique, as a service

L’un des nombreux challenges des prochaines années, c’est l’unification des différentes intelligences artificielles. Aujourd’hui tous les progrès en intelligence artificielle ont lieu sur des cas d’usages bien spécifiques (gagner au poker, conduire des Google Car, diagnostiquer des cancers ou remplacer les managers), mais à l’avenir il va falloir créer une intelligence artificielle capable de faire le lien entre tous ces cas d’usages pour permettre de tout faire. C’est d’ailleurs l’objectif affiché par Demis Hassabis le créateur de DeepMind Résoudre l’intelligence et l’utiliser pour tout faire”. Cette unification ne va pas être simple, il va falloir que les intelligences artificielles se parlent et se comprennent, aient une vue globale sur nos objectifs, une mémoire de travail, une capacité à contextualiser, à découper leurs actions en plus petites tâches…Cette intelligence artificielle unique nous y serons tous connectés en permanence, elle sera dans un Cloud et elle sera notre majordome digital, elle nous connaîtra parfaitement et sera capable de tout faire pour nous, aussi bien être notre médecin, notre banquier, notre avocat, notre conseiller, notre professeur et notre ami qui s’occupera de tout pour nous et nous représentera dans nos interactions : c’est l’ambition des géants du web avec Google Assistant, Facebook M, Alexa d’Amazon, Cortana de Microsoft.

Les machines deviendront conscientes…artificiellement

Mais comme le disait Ray Kurzweil ou Marvin Minsky, ce développement de l’intelligence artificielle ne s’arrêtera pas à des algorithmes capables de réaliser ce qu’on leur demande. L’une des grandes questions des sciences cognitives est celle de la conscience, et là aussi des chercheurs commencent à développer des algorithmes de conscience artificielle. La encore, même problème qu’avec l’intelligence artificielle : on sait difficilement définir ce qu’est la conscience, les chercheurs ne sont pas d’accord et les découvertes remettent en question tout ce que l’on croit (même si beaucoup de travaux offrent des perspectives très intéressantes). Alors là encore on fait comme avec l’intelligence artificielle, on se met d’accord sur un objectif de la conscience et on tente de le modéliser dans un algorithme. C’est ce qu’à fait Selmer Bringsjord, chercheur à l’institut Polytechnique de New York. Il a défini la conscience comme la capacité d’un organisme à s’observer fonctionner comme une entité distincte des autres. Il s’est inspiré des bébés, qui vers l’age d’un an et demi sont capables de comprendre qu’ils sont responsables des mots qui sortent de leur bouche lorsqu’ils parlent, ou se reconnaissent bouger devant un miroir. Il a programmé un robot en lui disant qu’il lui avait donné une pilule qui pouvait soit lui couper la parole, soit ne rien faire (le placebo). Il a ensuite demandé au robot quelle pilule il avait reçue, et le robot commence à répondre au chercheur qu’il ne sait pas. Et en répondant au chercheur, le robot se rend compte qu’il est en train de s’exprimer et que donc il a reçu le placebo : il s’excuse et dit au chercheur qu’il peut lui affirmer qu’il a reçu le placebo. Deux boucles d’algorithmes qui fonctionnent en parallèle : une qui permet au robot de comprendre son environnement, et une au dessus qui lui permet de s’observer en train de fonctionner et d’ajuster. Evidemment il est facile de se dire que ça n’est pas de la conscience humaine, que c’est uniquement du code, et que c’est beaucoup trop réducteur pour la conscience humaine…C’est vrai, mais c’est un début, ce sont les premiers algorithmes de conscience artificielle. Nous sommes évidemment loins des tests de conscience artificielle du film Ex-Machina. Mais la tendance est lancée et les recherches se poursuivent.

L’un des premiers modèles de conscience artificielle très simple réalisé à l’Institut Polytechnique de New York

S’inspirer du vivant

La tendance du développement de ces algorithmes d’intelligence et de conscience artificielle, c’est de s’inspirer du vivant. De la même manière que l’ADN peut se répliquer, muter, fusionner et se transmettre pour évoluer, les algorithmes vont s’inspirer de ces principes pour pouvoir eux aussi se répliquer, muter et être sélectionnés par leur environnement pour leur capacité à atteindre leurs objectifs. Évidemment, en leur donnant ces propriétés ces algorithmes vont s’auto-complexifier en évoluant jusqu’à devenir potentiellement incompréhensibles pour leurs créateurs, et c’est là le risque de perte de contrôle dont parlent des chercheurs comme Stephen Hawking ou Marvin Minsky. Inutile de parler de scénarios de science fiction ou de fin du monde, nous n’avons aucune idée de ce à quoi ressembleront ces algorithmes auto-apprenants et auto-organisateurs. D’ailleurs nous avons déjà du mal à comprendre les comportements des algorithmes de Deep Learning.

Ça n’arrivera jamais !

“Une intelligence artificielle capable de tout faire ? Impossible, jamais on n’arrivera à une intelligence aussi complexe et flexible dans une machine !”, “On aura toujours besoin de l’homme pour…ceci ou cela…”, “La machine ne pourra jamais être créative !”, “La conscience artificielle c’est de la science fiction”…Voilà ce qu’on entend en ce moment et qu’on continuera à entendre dans les prochaines années au sujet de l’intelligence artificielle. Même si les prouesses de l’intelligence artificielle explosent, il y a toujours des journalistes, des philosophes, des consultants et même des chercheurs pour nous dire que non, l’intelligence artificielle générale, le point de singularité où les machines pourraient être capables de se développer toutes seules, on n’y arrivera jamais ou pas avant très très longtemps. Mais il y a deux arguments pour penser qu’ils ont tort. Le premier c’est la vitesse exponentielle du développement de l’intelligence artificielle. De la même manière que le séquençage du génome a été rendu possible et s’est démocratisé en quelques années, l’intelligence artificielle et toutes les autres avancées scientifiques et technologiques suivent en ce moment ce schéma d’accélération exponentielle qui les rend très proches de nous : ce que l’on croyait faisable d’ici 20 ans le sera probablement en 5 ou 2 ans. Notre cerveau imagine l’avenir en mode linéaire alors que la technologie évolue à une vitesse exponentielle, ce qui rend ce phénomène difficile à imaginer., mais il est bien réel (même avec la loi de Moore selon laquelle la puissance de calcul des machines doublait tous les 18 mois qui s’est mise à ralentir et qui repart…). Le deuxième argument est philosophique, c’est de dire que tout phénomène que l’on définit peut-être modélisé dans un algorithme et qu’il devient ce phénomène…en version artificielle. La difficulté réside plus dans la définition de ces phénomènes et dans le fait qu’ils évoluent à la vitesse des découvertes qui s’accélère elle aussi. L’humain a aussi tendance à se dire que chaque fois que la machine parvient à faire une tâche qu’on considérait relever de l’intelligence finalement ça n’est pas de l’intelligence, puisque la machine l’a fait !

Ca avance vite, mais ça n’est ni simple ni magique

Les résultats récents de l’intelligence artificielle sont impressionnants et les perspectives donnent le vertige. Mais il faut rappeler que ces résultats sont le fruit d’un travail considérable. Le Deep Learning n’apprend pas tout seul à reconnaître ce qu’il y a sur des photos, il a besoin d’être supervisé par un être humain pour le guider, de données propres qui nécessitent aussi beaucoup de temps pour être prêtes à être traitées, de programmeurs pour paramétrer les algorithmes et les choisir, de capacités de calcul considérables… Les prochaines années vont nous fournir des solutions et des optimisations à tous ces obstacles. Les découvertes sur le cerveau vont nous inspirer dans le développement d’algorithmes de plus en plus puissants et flexibles, et les comportements de ces algorithmes vont aussi nous éclairer sur le fonctionnement de notre propre intelligence. Il va y avoir des obstacles (les croyances, les intérêts, les lobbys, la réception du public, les questions relatives à la vie privée et aux données, les politiques…) et il va nous falloir préparer dès maintenant l’encadrement de l’intelligence artificielle d’un point de vue éthique et juridique à un niveau global.

L’essor de l’intelligence artificielle

--

--