“Une démarche éthique est d’une grande efficacité économique”

Delphine Sabattier
Tech Stories
Published in
6 min readSep 13, 2019

L’IA et la robotique ouvrent autant de perspectives pour la société qu’elles suscitent de fantasmes et de peurs. J’ai interrogé la chercheuse Laurence Devillers sur les réflexions éthiques qui lui semblent nécessaires pour encadrer ces objets complexes. Et sur leur compatibilité avec les business émergents.

Mon interview de Laurence Devillers dans Le Nouveau Magazine Littéraire

Professeure en Intelligence Artificielle à Sorbonne Université et chercheuse au LIMSI-CNRS, Laurence Devillers travaille sur les interactions parlées humain-machine et l’éthique du développement de ces systèmes dans la société.
Auteure de Des robots et des hommes : mythes, fantasmes et réalité (Plon, 2017), elle est spécialisée dans l’étude des émotions et les interactions avec les robots.
Laurence Devillers a participé à la rédaction du rapport sur l’Ethique du chercheur en robotique et a piloté celui sur l’Ethique et apprentissage machine au sein de la Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA).

- Laurence Devillers, les robots de compagnie doivent-ils simuler des émotions pour mieux se faire adopter ?

“Un robot embarque des modules d’intelligence artificielle pour percevoir, raisonner et générer des actions. Un robot de compagnie est capable d’interagir avec les humains. Un robot affectif a, en plus, la capacité de détecter des indices émotionnels (dans la voix, le visage, la posture ou encore les gestes), de dialoguer en prenant en compte ces informations émotionnelles et de répondre par des comportements affectifs comme l’empathie.

Détecter les émotions de la personne à partir d’indices para linguistiques et adapter son comportement semblent des capacités très utiles aux robots pour gérer une interaction spontanée.

Les systèmes actuels sont cependant encore très loin de savoir converser et de pouvoir détecter les émotions complexes de la vie de tous les jours. Ils possèdent des facultés de compréhension très pauvres et n’ont aucun sens commun. Malgré cela, l’humain projette sur ces objets des capacités humaines et les anthropomorphise.

Bien évidemment, la ressemblance du robot avec l’humain ou avec l’animal contribue à susciter l’émotion, mais d’autres voies sont également utilisées comme des mimiques schématisées, des intonations de son ou de voix, un aspect de peluche.

Engager l’utilisateur dans une interaction avec un robot doté de capacités affectives, faire qu’il prenne du plaisir à interagir avec lui, faire qu’il ait confiance en lui, sont des buts de la robotique de compagnie.

Mais si les systèmes singent les comportements des humains, encore faut-il prendre en compte les risques de confusion pour une grande partie du public”.

- Pensez-vous qu’il soit responsable de confier aux robots l’assistance d‘enfants, de personnes seules ou en fragilité ?

“Les robots exécutent des programmes informatiques pour simuler ces comportements mais n’ont pas de conscience phénoménale, ni de sentiments, ni ce désir ou « appétit de vivre » que Spinoza désigne du nom de conatus (effort pour persévérer dans l’être — Ethique III, prop. 9, scolie) qui se rapporte à toute chose aussi bien au mental qu’au corps.

Toute imitation du vivant incite à comparer la réalisation artificielle au prototype naturel. Cette comparaison peut amener à solliciter l’imaginaire pour brouiller la frontière entre l’artificiel et le naturel comme le pratique le cinéma.

Il est nécessaire de s’interroger sur l’utilité et les effets de la ressemblance au vivant notamment auprès de personnes fragiles et de prendre soin de communiquer clairement sur ce point auprès du public (Rapport sur l’Ethique du chercheur en robotique, CERNA, 2014).

Par exemple, des robots simulant des émotions mis dans les mains d’enfants très jeunes pourraient avoir un effet désastreux sur leur apprentissage des interactions émotionnelles entre humains.

Notre vie affective se déroule dans un environnement social. Les émotions primaires comme la peur, la colère ou la joie apparaissent au cours de la première année de la vie de l’enfant. Même ces émotions peuvent être considérées comme sociales car elles émergent dans des situations qui sont influencées par l’entourage familial.

Les émotions liées à la conscience de soi comme l’embarras, la honte, la culpabilité, ou encore l’empathie, la fierté, font leur apparition au cours de la deuxième année de la vie de l’enfant. Elles requièrent la capacité cognitive d’auto réflexion et de représentation mentale du ‘moi’. Pendant sa troisième année de vie, l’enfant commence à assimiler les normes, les règles et les objectifs fixés par les personnes de son entourage. Cette capacité l’amène à vivre sous des formes plus pondérées les émotions telles que l’embarras ou la culpabilité mais aussi la colère ou la peur.

Ce que l’enfant apprend pendant les premières années de sa vie le rendra capable d’anticiper et d’interpréter le comportement affectif d’autrui, et de prévoir une réponse en interaction”.

- Avons-nous besoin d’une loi éthique universelle ou de règles d’usages ?

“Nous avons besoin de règles d’usages et d’accords universels. Il faut avoir conscience que la démarche biomimétique peut brouiller la frontière entre un être vivant et un artefact.

Il serait utile de consulter un comité opérationnel d’éthique national, au cas par cas, pour contrôler les implications de ce brouillage.

Ce comité n’existe malheureusement pas pour l’instant”.

- Quelle réflexion devrait précéder à tout développement d’intelligence artificielle, selon vous ?

“Il est nécessaire de s’interroger sur les effets que pourraient avoir les systèmes d’intelligence artificielle, y compris hors des usages pour lesquels ils sont conçus. Le robot est un objet matériel qui devient un système sociotechnique dès qu’il est utilisé.

L’impact sociétal est important car la robotique a la particularité de concevoir des machines physiquement incarnées et non immatérielles comme la majorité du monde numérique. Les robots sont également facilement mis en scène et peuvent attiser les peurs.

Les roboticiens connaissent les limites théoriques des machines, ils savent par exemple qu’il est impossible d’équiper un robot autonome de règles éthiques parfaitement adéquates, que le traçage complet de son comportement est inaccessible.

L’attitude éthique du roboticien est de faire le lien entre les deux aspects, sociétaux et techniques en travaillant également sur les usages avec des experts d’autres disciplines”.

- L’éthique et le business sont-ils compatibles ?

“Les deux concepts d’éthique et de business ne sont pas incompatibles. Le concept d’ ‘éthique’ est, en général, lié aux actions estimées bonnes, il est souvent distingué du concept de ‘morale’ qui est marqué par des normes, des obligations et des interdictions. ‘Le développement de l’IA est un business, et les business ne s’intéressent notoirement pas à des garanties fondamentales en particulier philosophique, mais également sécuritaire et sanitaire’, dénonce Robert James Sawyer, écrivain de science-fiction canadien.

Mais peut-on réellement produire efficacement en donnant confiance aux clients, si on oublie les valeurs de la société ?

Une démarche éthique est en fait d’une grande efficacité économique. En d’autres termes, l’éthique n’est pas seulement une marque adossée à la notion de business pour se donner bonne conscience mais fondamentalement une méthode structurée pour apprendre à produire mieux, à produire plus et dans de meilleures conditions sociales”.

- Aux trois lois d’Asimov, vous préférez ’11 commandements’ pour les robots sociaux. Pourquoi ?

“Pour Isaac Asimov, auteur de science-fiction, les robots n’étaient que des machines n’ayant pour objectif que d’effectuer les tâches pour lesquelles les ingénieurs les avaient conçues. Afin d’éviter tout danger pour l’Homme, les trois lois d’Asimov devaient être intégrées au plus bas niveau du ‘cerveau positronique’ (selon les termes d’Asimov) des robots, garantissant ainsi leur inviolabilité.

Dans mon ouvrage ‘Des robots et des hommes : mythes, fantasmes et réalité’ (ed. Plon 2017), je propose d’enrichir les lois d’Asimov avec des commandements adaptés aux robots assistants de vie. Les fondements de ces commandements viennent en partie de retour d’expériences d’interactions lors de mes recherches entre des personnes âgées et des robots.

1 : donnés privées : “Tu ne divulgueras pas mes données à n’importe qui”

2 : droit à l’oubli : “Tu oublieras tout ce que je te demande d’oublier”

3 : sécurité : “Tu pourras te déconnecter d’Internet si je te le demande”

4 : contrôle : “Tu seras régulièrement contrôler pour évaluer ce que tu as appris”

5 : explicabilité et traçabilité : “Tu pourras m’expliquer tes comportements si je te le demande”

6 : loyauté : “Tu seras loyal”

7: consentement : “Tu seras empathique et simulera des émotions, seulement si je le sais !”

8 : risque de dépendance : “Tu stimuleras ma mémoire et veilleras à ce que je ne devienne pas trop dépendant de toi !”

9 : risque de confusion : “Tu feras attention à ce que je ne te confonde pas avec un être humain !”

10 : adaptation aux règles sociales “Tu apprendras à vivre avec des humains et tu t’adapteras aux règles sociales”

11 : utilité et bienveillance : “Tu seras bienveillant et utile. Et pourquoi pas, doué d’un peu d’humour !”

Il est important de commencer à construire les robots sociaux de demain ethic by design. Nous avons besoin de démystifier, de former à l’intelligence artificielle et de remettre au centre de la conception de ces systèmes robotiques, les valeurs de l’humain”.

Propos recueillis par Delphine Sabattier en juillet 2018

--

--

Delphine Sabattier
Tech Stories

Exploratrice des révolutions numériques. J’ai dirigé les grands médias tech et m'exprime aujourd’hui en mon nom sur https://medium.com/human-tech-stories !