“OK Google, choisis un restaurant pour mon rendez-vous de ce soir”.

Joanne SABA
5 min readApr 22, 2019

--

Photo by Emily Morter on Unsplash

L’intelligence artificielle s’incruste de plus en plus dans notre vie quotidienne. Au départ utilisée pour réaliser les tâches dures et répétitives afin de simplifier le travail humain, elle est présente aujourd’hui un peu partout autour de nous: chatbots et assistants vocaux, reconnaissance d’image, bientôt voitures autonomes… D’ailleurs, il paraît que dans quelques années, ce sont les robots qui gouverneront le monde, et qui régneront sur nos métiers… À quoi servira l’humain en l’an 3019 ? Je n’en ai aucune idée. Ce n’est de toute façon pas le sujet dont je vous parle aujourd’hui.
Les questions que j’aborde dans cet article sont les suivantes: Peut-on faire confiance aux machines dans la prise de décision? Et qui est tenu responsable des conséquences que peut engendrer une erreur de décision?

Ce que l’intelligence artificielle sait faire, c’est calculer le “meilleur” moyen de réaliser une tâche, par exemple le meilleur chemin pour aller d’un point A à un point B, en prenant en compte la distance, les accidents, ou les bouchons, bref, tous les facteurs physiques mesurables. Mais ce qu’elle est incapable de faire, c’est d’inclure dans cette prise de décision les sentiments et intentions du chauffeur: son humeur, la nécessité ou non d’arriver à l’heure, les détours souhaités, etc. Bon, dans ce cas, ce n’est pas si grave si votre GPS ne vous propose pas le chemin qui vous permettra de passer à côté de votre boulangerie préférée pour acheter votre baguette avant de rentrer chez vous; vous pourrez régler ça tout seul. Ce n’est pas très grave non plus si le logiciel de reconnaissance faciale de Facebook vous confond avec votre sœur jumelle, ou si votre assistant virtuel vous conseille un restaurant que vous n’aimez pas beaucoup pour votre dîner entre potes. Il s’agit ici de prises de décisions plus sérieuses, qui peuvent avoir un impact sur le futur.

Pensez par exemple aux candidats recalés au bout d’un entretien vidéo différé, même avant d’avoir rencontré une personne humaine. Oui, ce genre de situation existe vraiment ! Hirevue est un logiciel utilisé par les équipes des ressources humaines dans plusieurs entreprises, qui permet de faire une “pré-sélection” des candidats. Le candidat est filmé en train de répondre à des questions d’entretien classique; puis, les images sont analysées, et si ses expressions faciales ne correspondent pas aux critères de sélection de l’algorithme, il est éliminé directement.

Source: https://www.hirevue.com/resources/discover-the-best-talent-faster

Ici, on a donné à une machine le pouvoir de décider de l’avenir du pauvre postulant, en créant une sorte de “discrimination automatisée”. Il est évident que tout le monde ne se sent pas à l’aise devant une caméra, et plusieurs comptent sur l’interaction et le contact humain afin de se mettre en valeur. Cette déshumanisation du processus de recrutement vient donc souvent à l’encontre des ambitions des candidats.

Plus encore, l’Estonie a annoncé récemment qu’elle comptait remplacer les juges par l’intelligence artificielle d’ici 2021. Lors d’un procès, les deux partis doivent remplir des documents en ligne, en présentant leurs arguments soutenus de preuves. Puis, grâce à des algorithmes de machine learning, le programme entraîné à l’avance grâce à des affaires déjà classées sera responsable de juger des infractions mineures (amendes ne dépassant pas les 7000€). Il sera alors nourri à l’aide de documents légaux et les analysera afin de prendre une décision. Cette initiative devrait permettre de réduire les coûts ainsi que de permettre aux juges de se concentrer sur des cas plus graves.

Source: iStock

Encore une fois, c’est un scénario de science fiction qui pourrait se produire réellement, en déshumanisant une tâche où le contact humain est primordial:
- D’une part, seul un humain peut savoir si l’accusé présent devant lui ment ou non, notamment en analysant son body language et la structure même de son discours, alors que la machine pourrait facilement être trompée et penser que c’est la vérité qui a été dite.
- D’autre part, il est très important dans un jugement de connaître les vraies raisons qui ont poussé le coupable à commettre son délit, ce qui pourrait changer toute la tournure du procès. Ici encore, la machine serait incapable de comprendre le contexte et les réelles intentions de l’accusé.

Si l’on confie autant de responsabilité aux machines, elles devront être responsables aussi des conséquences de leurs décisions, non? Prenons le cas des voitures autonomes, à qui on demande de conduire seules sur des routes où tout peut arriver. Peut-on alors en cas d’accident juger la voiture elle-même coupable?
On peut citer entre autres le cas d’Elaine Herzberg, premier piéton à avoir été tué par un véhicule autonome le 18 mars 2018. La voiture, une volvo qui était en période de test par Uber, roulait en mode automatique, sous la surveillance d’un conducteur humain, Rafaela Vasquez.

La voiture impliquée dans l’accident qui a tué Eleine Herzberg (source: Wikipedia)

Plusieurs débats éclatèrent après l’accident, afin de savoir qui était le véritable coupable: la victime qui avait traversé hors passage piéton sur une route mal illuminée, la conductrice qui au moment de l’accident était en train de visionner un épisode de The Voice sur son portable, ou le véhicule lui-même qui avait eu des problèmes à identifier la nature de l’obstacle détecté et donc n’avait pas pu s’arrêter à temps? Sans beaucoup de suspens, voici le jugement final: un an après cette tragédie, les autorités du comté de Yavapai ont déclaré que la société Uber n’était juridiquement pas responsable de cet accident.
Dans d’autres cas, ce sont les personnes à bord des voitures autonomes qui ont perdu leurs vies, et à chaque fois, la même question se pose: qui est véritablement responsable de l’accident? Le conducteur, la voiture autonome, ou son constructeur? Difficile à dire.

En fait, une piste existe déjà: en Estonie (dite aussi e-Stonie), le Ministère de l’économie a récemment annoncé qu’ils envisageaient d’accorder un statut légal pour l’IA et les robots, en introduisant le terme “robot-agent”, dont “le statut se situerait entre celui de personnalité juridique distincte et celui d’un objet, propriété d’une personne”. L’intelligence artificielle serait alors vue par la justice égale aux personnes physiques, en particulier lors des procès impliquant des machines comme par exemple les accidents des voitures autonomes.

De plus en plus de responsabilités sont en train d’être confiées aux machines. Mais cette déshumanisation des tâches n’est pas toujours juste: il ne faut pas oublier que la machine ne se base que sur des lignes de code, alors que l’humain tend parfois à écouter son cœur plutôt que sa raison.

--

--