L’intelligence émotionnelle des robots, est-elle vraiment éthique ?

Winky
4 min readSep 12, 2018

--

Nous vivons une époque où la robotique est devenue un sujet de préoccupations presque quotidien, que cela soit dans nos discussions personnelles ou bien dans les médias. Nous entendons parler de nouveaux robots humanoïdes, supers intelligents ou allant dans l’espace, mais aussi des problématiques éthiques qui en découlent : les progrès de l’intelligence artificielle, les robots de guerres ou bien le respect de la vie privée lors de la collecte de données. Pour autant, une préoccupation centrale et tout aussi impactante liée à la robotique est rarement évoqué. En effet, il me semble légitime de nous demander si nous avons — en tant que société vivant à l’heure de la révolution robotique — une compréhension suffisante de ce que sont les robots et de leurs fonctionnements, et en particulier de leur fonctionnement émotionnel. En découle naturellement une seconde interrogation : ceux qui vendent ces robots ou qui en font la promotion nous permettent-ils de nous en faire une claire opinion ? Le groupe Softbank robotics est-il honnête lorsqu’il annonce avoir fabriqué « le premier robot avec un cœur » ?

Travaillant à MainBot, une jeune entreprise française de robotique qui développe actuellement son premier produit, le petit robot compagnon Winky destiné à faire découvrir la programmation et la robotique aux enfants, je suis particulièrement et naturellement concernée par le sujet.

Donner un répertoire émotionnel à un robot permet de grandement faciliter les interactions prenant place entre les humains et ces machines sophistiquées. Comme le disait Jérôme Monceaux, fondateur des entreprises de robotique Spoon et Aldebaran, le 12 avril dernier lors d’un débat sur l’éthique et les robots empathiques organisée par le mouton numérique, l’émotionnalisation des robots s’avère nécessaire afin de rendre les interfaces plus intuitives, permettant ainsi de baisser la charge cognitive liée à leur utilisation, ainsi qu’à augmenter le naturel de l’interaction et donc le plaisir liée à cet échange. Transmis par le biais de signaux non verbaux. A travers des gestes, mouvements et attitudes corporelles, mais aussi par le ton et le rythme de la voix. Implémenter ce type de comportement chez un robot permet de créer une communication efficace, précise et agréable pour l’utilisateur.

Les humains sont tentés de croire à l’émotion robotique.

Attribuer à des objets, des concepts ou à d’autres être vivants des caractéristiques humaines est un mécanisme très prégnant parmis les membres de nos espèce. Cela s’appelle l’anthropomorphisme, et nous le faisons quotidiennement.

Ce type de perceptions anthropomorphiques, voir animistes, est encore plus courant chez les enfants que chez les adultes. Cela a particulièrement été mis en lumière dans les travaux de Piaget, biologiste et psychologue pionnier des recherches sur le développement de l’enfant. Il a par exemple expliqué comment les enfants attribuent un rôle actif à des objets et à des phénomènes en fonction de leurs propres compréhensions de la réalité.

Tanya Beran, chercheuse en psychologie de l’éducation, et son équipe de recherche a ainsi étudié comment les enfants attribuent des compétences erronées à nos compagnons robotiques. Dans un article publié en 2011, il est expliqué que les enfants ayant participé à l’étude attribuaient des compétences cognitives (intellectuelles) et comportementales (capacités d’actions) supérieurs aux capacités réelles des robots, mais surtout que la compétence qui était la plus surestimée par ces jeunes individus était la capacité des robots à avoir des réactions émotionnelles. Ils imaginaient par exemple que les robots seraient vexés si les enfants se mettaient à jouer avec l’un de leurs camarades sous le nez du robot. De manière intéressante, et en accord avec les théories piagétiennes. Ainsi, il paraît primordial de prendre en compte cette problématique d’anthropomorphisme lorsque nous plaçons des robots compagnons entre les mains de nos chers enfants.

Quelles sont les solutions proposées par la communauté de la robotique pour répondre à ces problématiques éthiques ?

Les chercheurs de l’IERHR (Institut pour l’Étude des Relations Homme-Robots) proposent dans leur charte éthique, publiée en juin 2017, d’intégrer dès la conception des robot une réflexion autour du respect du principe de dignité, c’est à dire « d’écarter le risque de confusion entre l’homme et la machine » en présentant toujours les machines et les intelligences artificielle comme telles.

De la même manière, mais cette fois dans le monde de l’entreprise, Andra Keay, directrice de l’association Silicon Valley Robotics, estime qu’il est nécessaire que les concepteurs de robots eux-mêmes intègrent un cadre éthique plus complet pour le design de leurs produits. Elle a donc proposé cinq lois, qu’elle préfère appeler « guidelines for design »

dont une nous intéresse particulièrement ici (vous pouvez aller consulter les autres ici ou ici). « Les robots sont des produits, ainsi, et comme n’importe quel produit, ils doivent être sûrs, fiables et donner une image exacte de leurs capacités. »

Il n’est absolument pas acceptable de me dire que mon robot peut ressentir des émotions et me comprendre, alors qu’il n’est en fait que capable d’analyser différentes variables issues de nos interactions et d’exécuter un code correspondant et implémenté a priori par ses concepteurs (ce qui est déjà une prouesse en soi).

--

--