L’humain ou l’intelligence artificielle, lequel débiaiser ?

Elle gère votre vie amoureuse, vous recommande des films, des musiques, vous soigne, vous donne des conseils juridiques, vous traduit tous les documents que vous souhaitez et même vous recrute, non, ce n’est pas la force du destin qui s’en charge, mais bien l’intelligence artificielle (IA).

On vous l’accorde, d’apparence, rien ne cloche. Mais en s’y intéressant de plus près on se rend compte que nous n’avons pas le contrôle. Ce dernier est entre les mains d’algorithmes qui pour certains, sont loin d’être neutres. L’IA n’est pas seulement la promesse de demain. Elle s’est déjà immiscée discrètement dans nos usages quotidiens. Et parfois, nous peinons à la comprendre, à l’interroger, voire même à la remettre en question.

Combien de temps nous a été nécessaire avant de se rendre compte que Google Translate, traduisait de façon stéréotypée : “surgeon”, “chirurgien” et “nurse”, infirmière, (alors qu’on qualifie en anglais ces deux termes d’épicènes*) et, combien de temps pour rectifier ce biais…?

Combien de temps avant de comprendre que si le logiciel de recrutement d’Amazon évinçait les candidatures des femmes, ce n’était pas parce qu’il était sexiste. Le problème venait bien des données biaisées de l’entreprise. En effet, cet algorithme apprenait sur le schéma actuel de l’entreprise, à savoir la surreprésentation des ingénieurs, hommes, blancs, jugés donc comme le profil de référence par l’algorithme.

Le contexte pro-égalitaire et l’essor des techniques du machine learning actualisent la question des biais dans les algorithmes, notamment les biais de genre et l’urgence de les éradiquer.

“Souriez, vous êtes biaisé.e.s”

Mais au fait, c’est quoi un biais ? Scientifiquement appelé biais cognitif, il désigne une forme de pensée qui déforme le traitement d’une information. On y a recours pour économiser notre mémoire et simplifier le monde qui nous entoure (si vous voulez des solutions pour les déjouer, découvrez le nudge).

L’IA doit donc être au service de l’égalité, et non pas répéter un schéma sexiste que nous tentons de corriger.

Face à ce constat, une interrogation : l’intelligence artificielle ou l’humain, lequel débiaiser ? C’est à cette question que notre rapport collectif (co-rédigé avec Isabelle Collet, Hugo Ruggieri et Frédéric Bardolle) répond en proposant des actions concrètes pour éradiquer les biais sexistes des algorithmes et faire de l’IA un vecteur d’égalité.

IA : de quoi parle-t-on ?

Intelligence artificielle, machine learning, deeplearning, tant de termes dont l’usage devient fréquent mais dont la compréhension et les frontières restent parfois floues. Afin de comprendre ces notions et leur imbrication les unes par rapport aux autres, il faut imaginer trois poupées russes. Le déclinement serait le suivant : la plus grande — l’intelligence artificielle — recouvrirait la moyenne — machine learning — et cette dernière contiendrait la plus petite — deeplearning.

En effet, l’intelligence artificielle est « l’application de logiciels et de techniques de programmation mettant en lumière les principes de l’intelligence en général, et de la pensée humaine en particulier » (Margaret Boden). Alors que le machine learning (apprentissage automatique) est un champ d’application de l’IA qui a une approche probabiliste pour que les algorithmes apprennent à partir de données du passé. Enfin, le deeplearning (apprentissage profond) est une méthode d’apprentissage automatique qui copie le fonctionnement des réseaux de neurones.

Une IA non sexite, par où commencer ?

Comment rendre l’intelligence artificielle plus éthique, responsable et dénuée de biais ? Afin de résoudre ce problème systémique, il faut l’aborder sous différents angles mais aussi l’inscrire dans une problématique plus large qu’est l’égalité entre les femmes et les hommes.

La première chose, c’est la féminisation des métiers du numérique. Pourquoi plus de femmes dans le numérique ? Quel lien avec les algorithmes biaisés ? L’IA est le reflet de celles et ceux qui la créent. Or, si les développeur.se.s sont majoritairement des hommes, les algorithmes risquent de refléter leur vision du monde. En favorisant la mixité dans le numérique, nous pourrons espérer une diminution des biais dans les algorithmes.

Il faut donc agir dès l’école, au moment de l’orientation et dans l’enseignement supérieur, en accompagnant les équipes pédagogiques et directives à instaurer une culture d’égalité au croisement d’une culture du numérique. A l’école, cela se traduit par l’instauration de l’informatique comme une discipline fondamentale et l’apprentissage du code aux enfants (comme le fait Magic Makers). Ces initiatives pourraient prétendre démystifier l’association informatique et monde masculin pour ainsi permettre aux jeunes filles de s’y orienter plus facilement après le bac.

Dans la même perspective, la mixité doit se poursuivre dans les formations tech pour lutter contre le départ de femmes lors de ces cursus où souvent le sexisme est fortement présent (comme a pu le montrer notre étude sur le sexisme dans les formations tech). De plus, on permet aux jeunes filles d’avoir des modèles dans l’informatique et donc de se projeter davantage dans ce domaine.

En résumé, la mixité dans les formations du numérique, et à plus long terme dans les métiers, constitue un terreau fertile au développement de programmes non biaisés. Alors, qu’est-ce qu’on attend ?

“Dis moi quel algorithme tu as programmé.e, et je te dirai quel.le développeur.se tu es”

Vous l’aurez compris, si nos algorithmes sont biaisés, c’est parce que les humains derrière le sont en premier. La première loi de Kranzberg nous dit : « la technologie n’est ni mauvaise, ni bonne, ni neutre, elle est ce qu’on en fait ». Effectivement, les algorithmes, lorsqu’ils sont implantés, suivent des objectifs qui sont décidés par les humains et peuvent être entraînés sur des données biaisées. De facto, l’IA prend certains stéréotypes pour des réalités et les reproduit. Seulement, avoir une équipe mixte ne suffit pas à éradiquer les biais, puisque nous en avons tou.te.s, et ce quelque soit notre genre !

Pour endiguer ce problème au niveau du développement des algorithmes, nous recommandons de :

  • débiaiser les données (notamment en faisant des audits sexués réguliers) : soit en créant un jeu de données non biaisées (en ayant identifié en amont le caractère biaisé des données) ou en forçant manuellement l’algorithme à ignorer le biais en question
  • proposer un panel beaucoup plus large d’avatars, représentatif de l’ensemble de la population. Aussi, dépasser le critère du sexe des avatars dans l’attribution des domaines d’assistance virtuelle. Nous constatons un “recyclage stéréotypique”** : des avatars femmes pour les demandes de service et des avatars hommes pour du conseil financier.
  • former les développeur.se.s aux stéréotypes de genre via des modules de formation directement intégrés dans les formations tech
  • promouvoir un code éthique et des bonnes pratiques en matière d’algorithmes non biaisés chez les concepteur.rice.s de programmes (comme l’initiative de Data for good avec “un Serment d’Hippocrate”)
  • utiliser l’IA pour favoriser l’égalité F/H et lutter contre les discriminations, comme des initiatives de logiciels de recrutement se basant sur des modèles prédictifs (Assessfirst utilise des algorithmes qui ne retiennent aucunement les critères tels que l’âge, le genre ou encore l’expérience passée mais se basent uniquement sur les tests de personnalité, de motivation et d’aptitude).

Renforcer le cadre légal pour mieux prévenir et réprimer

D’après Hugo Ruggieri, responsable juridique chez Doctrine.fr, pour répandre et entériner ces initiatives, il est également nécessaire d’encadrer et de s’outiller juridiquement en matière de répression des infractions sexistes.

Face à l’utilisation massive d’internet et des contenus sexistes qui circulent parfois, il convient de définir clairement l’infraction sexiste pour assurer une répression efficace et effective.

Dans le même temps, les entreprises développant et ayant recours à l’intelligence artificielle doivent se voir imposer des obligations de transparence et loyauté, voire d’adoption de codes de bonne conduite publics. Les obligations de transparence et de loyauté devraient porter à la fois sur la description générale et compréhensible par tou.te.s du fonctionnement de l’algorithme (quel est son but, quels sont les critères utilisés) mais aussi sur l’origine des données d’entraînement, et notamment sur les processus d’audit de ces données.

Enfin, créer une plateforme de signalement serait d’une part, l’opportunité de signaler un contenu sexiste, et d’autre part, d’instaurer des comportements de vigilance quant à ces contenus.

Algorithmes biaisés, vies biaisées ?

Au regard de la méconnaissance des usagers sur les algorithmes, il est d’utilité publique que d’informer sur cette question. Plus précisément, il s’agit de permettre aux individus de savoir comment les algorithmes qu’ils.elles utilisent fonctionnent, et surtout l’impact qu’ils peuvent avoir sur les différentes sphères de leur vie. Cet objectif pourrait être rempli à travers le lancement de campagnes de sensibilisation et d’information sur les usages de l’IA.

C’est notamment la revendication de la journaliste Judith Duportail qui a enquêté sur les algorithmes de matching de Tinder (application de rencontre). Elle dénonce le manque de transparence des programmes algorithmiques, surtout lorsque l’on mesure leurs enjeux dans nos vies personnelles et intimes.

Le travail de responsabilisation auprès des professionnel.le.s du secteur cité plus haut n’est pas suffisant. Pour lutter contre une asymétrie entre les développeur.se.s et les les utilisateur.rice.s, il faut sensibiliser ces dernier.e.s aux éléments retenus dans ces algorithmes.

L’exemple de Tinder cité par cette même journaliste est criant : “Un homme qui gagne beaucoup d’argent et qui a fait de bonnes études, il va avoir des points bonus, et une femme qui a fait les mêmes études et qui gagne exactement le même salaire, elle va avoir des points malus” (Judith Duportail, L’amour sous algorithme, 2019). Ces critères très arbitraires renforcent l’homogamie et, à fortiori, les inégalités de genre.

De la théorie à la pratique

Comment impliquer et outiller les développeur.se.s et autres professionnel.le.s de l’IA sur la question des biais de genre ? Social Builder, en partenariat avec la Fondation la France s’engage, a récemment proposé un atelier à Station F pour accompagner des professionnel.le.s à se saisir de ces problématiques.

A travers une mise en situation, plusieurs groupes aux profils divers devaient développer un chatbot intelligent*** et ainsi déployer des actions pour que celui-ci ne reproduise pas de biais sexistes. Nous les avons invité.e.s à réfléchir autour de quatre pistes pour lesquelles la question des biais était essentielle :

  • le domaine d’application (recrutement, juridique, vie sentimentale, médical, orientation professionnelle, etc)
  • le profil du chatbot (nom, pictogramme, texte de présentation)
  • les données sur lesquelles le chatbot devait se baser et les règles à lui imposer
  • l’aspect juridique dans la gestion des propos sexistes générés soit par le chabot ou l’utilisateur.rice

Du chatbot de rencontre, au chatbot d’orientation, en passant par le chabot médical, cette séance d’intelligence collective nous rappelle ce que les études en psychologie sociale nous ont toujours montré : le collectif rime avec créatif. Ce temps d’échanges a notamment permis de lancer des débats autour de “l’identité” du chatbot : robot vs humanoïde, neutralité du genre du chatbot, etc. Autant d’interrogations qu’il est nécessaire de se poser en amont de la conception de programmes algorithmiques.

Les débats ont même ouvert sur la version audio du chatbot : le voicebot. A ce propos, la première voix artificielle non genrée vient d’être produite, et c’est troublant (pour l’écouter, c’est ici). Cette nouvelle voix artificielle est la preuve que des initiatives existent et commencent à se répandre pour faire de nos technologies, des technologies inclusives.

La voie vers une intelligence artificielle responsable et ne reproduisant pas de biais sexistes est donc possible. Mais une mobilisation collective sur le sujet est nécessaire en créant des ponts entre les différent.e.s professionnel.le.s du numérique et les utilisateur.rice.s.

Le but ? Favoriser un écosystème autour d’une IA transparente et vectrice d’égalité.

* se dit d’un mot qui s’écrit de la même façon au féminin et masculin

**Isabelle Collet, Table Ronde du 24/01/19

***Chabot intelligent : L’utilisateur peut écrire ses propres mots, que le robot va intégrer et comprendre pour répondre de la manière la plus précise possible. Ce bot utilise de l’IA, et plus précisément le machine learning (en se basant sur les données de l’entreprise).