Les 3 lois de la robotique suffiront-elles ?

Commençons par clarifier 3 points :

  • Certains éléments de cet article pourront vous paraître alarmistes et anti-technologiques : il n’en est pourtant rien. Je suis d’ailleurs un fervent adepte de la robotique et de l’intelligence artificielle.
  • Cet article comportera de nombreuses références à l’actualité high-tech et à des termes scientifiques. Si vous ne connaissez pas certains éléments que je citerai, n’hésitez pas à lire les articles ou les liens avant de continuer la lecture, vous comprendrez beaucoup mieux la suite.
  • Enfin, je préfère mettre tout de suite les choses au clair : je ne suis pas roboticien ni spécialiste en intelligence artificielle, mais simplement un informaticien curieux et citoyen averti.

En regardant le film I, robot dernièrement à la télévision pour une énième fois, je me suis dit que c’était décidément une mauvaise adaptation des œuvres d’Isaac Asimov. Ensuite, mon côté geek m’a rattrapé: les robots c’est vraiment cool, même lorsqu’une super intelligence artificielle essaye de contrôler l’humanité (désolé du gros spoil). Et pour finir, je me suis rappelé la première fois où j’étais allé au cinéma voir ce film. Je m’étais posé une simple question : “Mais dans la vraie vie, est ce que ça pourrait nous arriver ? Et comment l’éviter ?”, avant de me raviser : “on a vraiment le temps avant d’avoir ce genre de problème”.

Avec du recul et au vu des différentes avancées, ma remarque serait maintenant : “ça nous pend au nez mais comment l’éviter ?”.

Je vous parais peut-être pessimiste mais cet article est là pour vous prouver qu’il vaut mieux se poser la question suivante, lorsque nous avons encore le temps : “Comment pouvons-nous éviter qu’une intelligence artificielle nous contrôle ?”

Pourquoi faut-il se poser la question maintenant ?

A la sortie du film, en 2004, le premier iphone n’était pas encore sorti. Les plus chanceux de mon âge s’amusaient avec des mindstorms lego pour faire leur premier robot qui ne marchait même pas. Et les seuls robots un peu sérieux dont on entendait parler étaient les robots dans l’industrie automobile.

Certains se rappelleront peut être cette publicité

L’informatique a pas mal évolué depuis, en particulier dans le domaine de la robotique et de l’intelligence artificielle. D’un côté, l’engouement pour les smartphones a forcé la miniaturisation des composants électroniques. Et d’un autre côté, les grands acteurs du secteur informatique se sont rendus compte que la meilleure manière d’améliorer leur produit était de le laisser s’améliorer lui même via des algorithmes d’apprentissage.

Ces dernières années, nous avons donc vu naître des miracles dans le domaine de la robotique comme Asimo :

L’un des robots les plus avancés technologiquement

On a aussi vu les premières atrocités à l’aide de ces outils :

On a appris qu’il était possible de créer une machine capable de tout savoir sur tout le monde et surtout sans que personne le sache pendant plusieurs années : Oui PRISM c’est bien toi que je regarde.

Watson, l’intelligence artificielle d’IBM gagne un jeu de culture générale et AlphaGo de Google commence à “se débrouiller” au jeu de go alors que tout le monde clamait haut et fort que ce jeu, par sa complexité, resterait l’apanage des humains (voir cet article).

N’importe qui peut dorénavant converser avec une intelligence artificielle comme Siri sur iOS ou Cortana sous windows 10 sur un simple smartphone.

Dernièrement, on a même vu les prochains fantassins de l’armée américaine :

Boston Dynamics est passé à la vitesse supérieure avec des robots bipèdes. Et oui ils ont en contrat avec l’armée américaine.

Additionnez tout ça et vous vous rendrez compte qu’il ne faut pas beaucoup plus d’imagination pour arriver à un bon vieux SkyNet/Terminator :

Ce n’est que mon avis de jeune fou ? Quenini. Si certains des meilleurs esprits de notre époque comme Bill Gates, Stephen Hawking et Elon Musk le disent, je pense qu’il vaut mieux se pencher sur la question (voir cet article).

L’idéal serait d’ailleurs se poser la question maintenant, avant que nous n’arrivions au point de singularité ; lorsque nous ne comprendrons plus grand chose à ce que nous aurons créé.

Pourquoi tout le monde doit se poser la question ?

Je vais vous expliquer en 3 points pourquoi VOUS, oui VOUS, derrière votre écran, devez vous poser cette question : “Comment pouvons-nous éviter qu’une intelligence artificielle nous contrôle ?”

Apprenti-sorciers

Je vais commencer par vous raconter une histoire inavouable : nous, les informaticiens adorons jouer aux apprenti sorciers. Et je suis presque sûr, que nous ne remarquerons pas que nous avons construit une machine de destruction massive avant qu’il ne soit trop tard. Soit parce que nous serons trop absorbés par le travail. Soit parce que nous serons surpris que ça fonctionne du premier coup (oui ça arrive parfois).

Donc ne faites pas confiance aux informaticiens et plus généralement aux scientifiques pour s’auto-réguler. C’est dans leur nature même d’essayer des choses. C’est d’ailleurs la raison profonde pourquoi l’informatique progresse aussi vite.

Les gouvernements sont hors jeux

Laisser son gouvernement travailler à sa place est une stratégie envisageable en temps normal. Mais sur ce coup là, ce n’est certainement pas la stratégie gagnante. Ne comptez pas trop sur votre gouvernement pour prendre une décision rationnelle en temps normal. Alors lorsqu’il s’agit d’un truc qu’il ne comprend pas et qui est justement basé sur l’extrême logique cartésienne, il ne faut pas même pas y penser.

Les gouvernements commencent à être dépassés face aux multinationales de l’informatique comme les GAFA, et ce ne va pas aller en s’arrangeant. Désormais ces entreprises n’ont plus peur de s’élever contre des gouvernements (voir cet article).

Et si vous pensez qu’elles seront suffisamment raisonnables pour se poser la question ? Dites-vous qu’elles sont en bonne partie constituées d’informaticiens et relisez mon point précédent.

Cela amène d’autres questions plus profondes

Isaac Asimov a été l’un des tous premiers auteurs à voir les robots comme des êtres avec lesquels nous pourrions cohabiter (si si je vous l’assure, c’est justement pour cela que le film I, robot ne lui rend pas honneur).

Il a par exemple proposer 3 lois de la robotique qui pourraient aider à contrôler les robots.

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Et là, on se rend compte que ces 3 lois sont bien gentilles mais qu’elles posent de nombreuses sous-questions. Qu’est ce qu’un humain ? Qu’est ce que le danger ? Qu’est ce qu’un ordre ?

Et en fait à l’heure des bébés éprouvette, des manipulations génétiques, etc, on ne pourra pas contrôler les robots sans se poser des questions plus profondes auparavant, des questions qui concernent tout le monde.

Et d’ailleurs, on peut retrouver ce questionnement dans 2001, l’odyssée de l’espace d’Arthur C. Clarke et le film éponyme de Stanley Kubrick car les plus avertis auront remarqué que Hal est en fait un robot très fidèle : ces ordres ont seulement été mal pensés.

Tout n’est pas perdu

La robotique et l’intelligence artificielle ont de très beaux potentiels. Ces domaines vont nous permettre de relever les défis des prochains siècles à commencer par la conquête spatiale. Alors autant tirer parti au maximum de ces technologies tout en évitant l’extinction complète de la race humaine.

Isaac Asimov dans ses cycles Les Robots et Fondation avait par exemple imaginé une loi Zéro pour compléter les 3 premières :

Un robot ne peut nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal.

En rajoutant cette loi, on évite déjà pas mal de fausses notes à commencer par les génocides pour sauver un seul humain.

En ajoutant comme ça d’autres règles et en précisant les termes associés : humanité, être humain, danger, ordre, nous pourrions peut être nous offrir une protection suffisante.

Nous pourrions aussi envisager de n’autoriser que des corps physiques pour les intelligences artificielles développées pour éviter la propagation et le contrôle absolu de super intelligences artificielles comme SkyNet ou Viki. Il est quand même plus simple de détruite un simple robot qu’une intelligence présente sur internet et capable de se dupliquer à l’infini.

Nous pourrions aussi installer des garde-fou comme une espérance de vie très courte à l’image des “répliquants” de Blade Runner de Philip K. Dick et Ridley Scott.

Voici quelques pistes mais je suis sûr que nous arriverons à en trouver de bien meilleures. L’idée de commencer dès maintenant pour être sûr d’avoir une solution lorsque le problème se posera.

Et vous, que feriez-vous pour éviter qu’une intelligence artificielle nous contrôle ?

N’hésitez pas à partager si l’article vous a plus.