[Pint of Science] IA : pour le meilleur et pour le pire

Marie Langé
AMASAI Conseil
Published in
6 min readJun 17, 2019

Cette semaine se tenait le festival Pint of Science. L’objectif ? Démystifier la recherche scientifique et la faire découvrir au grand public au travers de conférences dans des bars et donc… autour d’une pinte. Si vous ne connaissez pas, je vous invite vivement à vous inscrire l’an prochain, ce festival se déroule dans toute la France, et les conférences sont passionnantes.

C’est donc dans ce cadre que j’ai participé à l’évènement “IA : pour le meilleur et pour le pire” où 2 intervenants très suivis sur les réseaux sociaux, notamment pour leur vulgarisation scientifique, ont pris la parole : @FibreTigre et @le_science4all.

FibreTigre est un touche-à-tout de la narration : créateur de jeux vidéos et d’escape games, chroniqueur pour @studio404 ainsi que de @TrajectoiresPod qui parle de culture mathématique, auteur de romans graphiques jeunesse.

Et surtout, FibreTigre vient de publier un roman graphique publié aux éditions Delcourt : “Intelligences Artificielles — Miroirs de nos vies”

Ils cherchaient une femme pour animer avec eux le podcast Trajectoires, mais n’ont réussi à motiver aucune chercheuse en mathématiques. L’idée leur est alors venue de créer une IA conversationnelle avec une voix féminine, pour être chroniqueuse avec eux. C’est comme ça qu’est née Yourie, l’IA héroïne et co-autrice de cette BD (et qui a son compte Twitter : @yurieamba, mais qui ne daigne pas me répondre).

Concrètement, ils ont entraîné Yourie avec tous les livres libres de droit qu’ils ont trouvés en français. Cela crée un problème majeur : Yourie est sexiste et raciste, car les livres libres de droits datent d’avant 1950…

Toutes les répliques de Yourie dans la BD sont des propos qu’elle a réellement tenus, Yourie a co-écrit cette BD, et cela pose un certain nombre de questions. Aurait-elle dû être créditée comme auteure ? Allons plus loin : imaginons que Yourie n’ait lu que du Victor Hugo. Elle s’exprimait alors comme lui, et on pourrait lui demander d’écrire un nouveau roman. Qui serait donc l’auteur de ce roman ? Quelque part, ce ne serait qu’une imitation. Et qui en est l’auteur ? Une machine ou Victor Hugo ?

FibreTigre soulevait un autre point intéressant : si on laisse une IA apprendre toute seule, en lisant Twitter et Facebook par exemple, celle-ci deviendrait rapidement pour la peine de mort. Pourquoi ?

Parce que ceux qui sont contre ne s’expriment pas sur le sujet, alors que ceux qui sont pour s’expriment et de façon vindicative, ce qui donne d’autant plus de poids à ce point de vue pour l’IA.

FibreTigre nous explique pourquoi Yourie est pour la peine de mort.

La BD est formidable, je vous invite vivement à l’acheter si vous voulez en savoir plus sur les IA, comment cela fonctionne, quels problèmes elles peuvent poser. C’est ludique, tout en invitant à la réflexion.

Seul bémol peut-être : je me demande si les explications quant au fonctionnement des IA sont suffisamment vulgarisées, ça me semble un peu compliqué à comprendre pour un profane. Mais cela ne concerne que quelques pages et ne gêne en rien le plaisir et l’intérêt de lire le reste !

Puis ce fut au tour de Lê de nous livrer ses réflexions sur les IA.

Lê est docteur en Maths et auteur de la chaîne Youtube Science4All qui cherche à promouvoir les mathématiques et les sciences en général autour de problèmes concrets et d’enjeux sociétaux. Il est également auteur d’un livre sur le bayésianisme : “La formule du savoir”, que je recommande vivement (même aux non matheux).

Sur sa chaîne, Lê a consacré une cinquantaine de vidéos dans une série sur l’Intelligence Artificielle, que je vous encourage à regarder !

Lê adresse la question des problèmes éthiques que peuvent poser les IA. Il s’interroge notamment sur les algorithmes de recommandation, qu’il connaît bien en tant qu’utilisateur assidu de Youtube.

L’algorithme de recommandation de Youtube ne cherche qu’une chose : vous faire passer le plus de temps possible sur la plateforme (notez que l’algorithme de Facebook a exactement le même objectif). Il calcule donc des scores de pertinence à vous proposer telle ou telle vidéo en fonction de votre profil, pour que vous ayez envie d’en voir plus et qu’une certaine addiction se crée, addiction de laquelle il n’est pas forcément facile de sortir.

Par ailleurs, Lê constate par exemple que seulement 6% des personnes qui visionnent ses vidéos sont des femmes. 6 % ! Certes, il y a moins de femmes intéressées par les sciences que les hommes (pour des raisons notamment sociétales), mais pas seulement 6% ! Lê est persuadé que c’est à cause de l’algorithme de recommandation de Youtube.

Et en effet, il y a fort à parier que les algorithmes proposent des choix “genrés”, comme cela a été récemment mis en avant dans un article du Monde : la publicité pour les écoles d’ingénieur est affichée en ligne majoritairement aux garçons. En effet, les algorithmes de ciblage publicitaire utilisent un ensemble de règles, dont le coût d’affichage d’une pub…qui est plus cher lorsqu’il s’agit d’une femme derrière l’écran.

Lê nous explique que seulement 6% des visiteurs de sa chaîne Youtube sont des femmes…

Un autre problème soulevé par les algorithmes de recommandation concerne les “bulles informationnelles”. Vous allez rester dans votre bulle, à ne consulter que du contenu qui vous plaît, avec lequel vous êtes d’accord, et cela a 2 conséquences majeures. La première, c’est que cela nous ferme à la sérendipité *, à la découverte de nouvelles choses, à l’ouverture de notre esprit à des choses inattendues.

La seconde, la plus grave, c’est le fait de vous conforter dans vos croyances. Ainsi, des platistes ** se verront proposés de nombreux contenus essayant de démontrer que la Terre est plate, ce qui renforcera leur croyance sur ce sujet.

Lê pense qu’on pourrait rendre ces algorithmes bénéfiques pour l’humanité s’ils étaient conçus différemment, en changeant leurs objectifs. Par exemple, l’algorithme de Youtube pourrait être moins focalisé sur la rétention clients mais plutôt sur l’amélioration de l’avenir de l’humanité (et donc proposer des vidéos scientifiques qui démontrent que la Terre est ronde aux platistes).

Cela dit, une personne dans la salle se demandait si les platistes allaient réellement cliquer sur les vidéos scientifiques qui leur étaient proposés alors que ce n’est pas ce qu’ils ont envie de voir… Il faudrait pouvoir AB-tester la proposition de Lê.

Nous avons ensuite abordé la question du “machine-learning adversarial”, qui consiste à trouver les failles des algorithmes (de reconnaissance d’images, de détections de fraude ou de fake news, etc) pour les contrer.

C’est un sujet qui pose de gros problèmes car des vidéastes pédophiles ont déjà trouvé des moyens de tourner leurs vidéos de façon à ne pas se faire repérer par les algorithmes de détection automatique de vidéos pédophiles.

Finalement, les 2 interlocuteurs ont soulevé des points qui nous intéressent tout particulièrement chez AMASAI : comment les IA apprennent, quels stéréotypes leur sont transmis par les jeux de données qui les alimentent, quels biais elles reproduisent, et quels effets pernicieux cela peut engendrer.

Chez AMASAI, nous accompagnons nos clients sur toute la chaîne de création d’IA, en intégrant ces enjeux dès la conception.

*sérendipité : don de faire des trouvailles de manière fortuite

** platiste : personne convaincue que la Terre est plate (si si, ça existe et ils sont très nombreux)

Originally published at AMASAI.

--

--

Marie Langé
AMASAI Conseil

Data AI Strategist // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech