“C’est pas moi chef, c’est l’IA” ou Le développeur est-il responsable de l’éthique de son IA ?

Mathieu Canzerini
InTech / Innovation & Development
7 min readJan 15, 2020

Les algorithmes sont à l’image de ceux qui les codent, majoritairement des hommes blancs.

Cet article a été écrit à quatre mains en collaboration avec Nicolas ANDRE

Photo by Rob Curran on Unsplash

La voiture autonome qui a une légère tendance à vouloir rouler sur une personne de couleur noire, un logiciel maison d’Amazon qui privilégie à l’embauche le CV des hommes devant celui des femmes, ou enfin une IA capable de déceler l’orientation sexuelle d’un individu à partir d’une photo (exemple au hasard : pour l’empêcher de donner son sang, ou pour filer un coup de main à l’algo de recrutement Amazon ?) : autant d’illustrations ambigües de l’utilisation de l’IA qui doivent nous interroger sur la responsabilité de ceux qui créent ces algorithmes pensés pour décider à notre place.

Pour expliquer ces résultats moralement dérangeants, ou du moins questionnables, la majorité des non-initiés font un raccourci facile et se réfugient derrière ce que d’aucun appellerait “la magie de l’IA”. En d’autres termes, on ne sait pas trop ce qu’il se passe dans un modèle IA, on balance des données à l’entrée, on passe une moulinette un peu obscure avec plein de paramètres (c’est même des hyper-paramètres tellement on ne les comprend pas trop), et on se contente d’observer que le résultat n’est pas exactement conforme à ce que l’on attendait, et donc on met tout à la poubelle et on oublie.

Oui, c’est ce qu’a fait Amazon par exemple. Insatisfaits d’observer que l’algo fait-maison de recrutement avait tendance à privilégier les hommes blancs dans la fleur de l’âge, et incapables de corriger le-dit algo pour en faire un modèle de tolérance, ils ont décidé de tout mettre sous le tapis. Un bon gros tapis quand même.

Parce que oui, il y aurait beaucoup à dire de cet algo macho-suprémaciste, et quand bien même tout le monde s’accordera à dire qu’il est certainement mieux de ne pas en faire usage, il serait probablement bien utile de tirer un peu le fil et de comprendre pourquoi bon sang la machine se veut-elle si prompte à nous étonner par dégoût, à nous soulever le coeur et à nous faire détourner le regard, alors qu’elle n’aspire qu’à nous ressembler, ou du moins, à ressembler aux données dont elle se nourrit.

La question qui nous vient à l’esprit est alors de savoir “c’est à qui la faute ?”. Est-ce de la responsabilité du développeur ? Est-ce la responsabilité des données ? La responsabilité de l’équipe de chercheurs qui ont développé le modèle ? Ou n’est-ce la faute à personne et faut-il s’en retourner à Dieu dont l’IA n’est peut-être après tout que l’expression de la volonté ?

SPOILER ALERT

L’IA n’a aucune morale, elle usurpe même son patronyme d’intelligence, elle est un mime trop zêlé, une fidèle copie des données — caractérisant nos pratiques et nos usages—que nous l’invitons à ingurgiter, et si d’aventure elle nous effraie, alors c’est du reflet de nos propres démons que nous sommes horrifiés. Comme dirait Rousseau, “l’IA naît bonne, c’est la société qui la corrompt”.

SPOILER ALERT

Une autre question reste en suspens : le développeur, ou plus généralement, celui qui exploite les données, n’a-t’il aucun rôle à jouer ?

Artificielle avant tout

Juxtaposer deux mots aussi antagonistes dans une seule et même expression reflète bien toute l’ambiguïté que revêt le concept même d’Intelligence Artificielle.

Le propre de l’Intelligence au sens commun, c’est à dire lorsqu’on l’applique à l’Homme ou à l’animal, c’est la capacité d’adaptation, la capacité de réaction à l’inattendu. Autrement dit, être intelligent, c’est créer une solution à un problème nouveau. Si l’Homme est intelligent, pas toujours mais souvent, c’est parce qu’il peut devant l’inconnu imaginer une succession d’actions qui le mèneront à son objectif. L’Homme peut imaginer des chaînes d’actions très longues, et est donc selon sa propre échelle d’évaluation, particulièrement intelligent. Le singe est intelligent, mais un peu moins que son lointain descendant, car il est capable de fabriquer un outil pour répondre à un besoin. Il imagine donc deux actions chaînées, c’est à dire la fabrication de l’outil et son usage, pour parvenir à ses fins. La poule n’est pas très intelligente car elle n’imagine aucune action, et qu’elle n’a aucun objectif autre que la survie de son espèce. Triste.

Peut-on dès lors parler d’Intelligence dans le cas de l’IA? Décemment pas. L’IA telle que nous la connaissons aujourd’hui ne sait que reproduire les caractéristiques principales des données—qu’elles soient de nature textuelle, graphique, numérique — que nous lui donnons à analyser. Elle ne crée pas, ou très peu du moins. Elle se contente de faire ce que nous savons faire, mais beaucoup (beaucoup, beaucoup) plus rapidement que ce que nous parviendrions à faire avec nos petites mains et nos petits cerveaux paresseux.

Pourra-t-elle le devenir un jour, véritablement intelligente ? Il serait bien présomptueux de penser que le cerveau de l’Homme est ainsi fait qu’il ne pourra jamais être copié par la machine.

Pour schématiser très grossièrement ce que l’on sait du cerveau humain, et si on fait abstraction de la pléthore de concepts qui décrivent son fonctionnement (découpage en zones du langage, de la motricité…, plasticité, réparation, résistance immunitaire…), on peut considérer que le cerveau est un (très) gros calculateur, dont la puissance dépend du nombre de neurones (et de synapses), et disposant d’une capacité à mémoriser à court terme, ainsi qu’à à long terme. Une fonction mémoire primordiale de l’homme est contenue dans son ADN, et elle n’est pas à négliger dans ce qu’elle apporte de mémoire instinctive et de comportements primaires innés. Elle est souvent oubliée lorsque l’on compare le temps d’apprentissage d’une machine par rapport à celui de l’Homme. Si l’on veut être précis, il est des comportements que l’Homme apprend depuis la nuit des temps et stocke dans son ADN (quelques 500 millions de teraoctets par gramme d’ADN, quand même).

Toujours est-il qu’avec une mémoire difficilement quantifiable mais particulièrement vaste (estimée 2.5Po au total soit 2500 téraoctets), avec 100 milliards de neurones environ dans un cerveau humain (puissance de calcul estimée à 1 zettaflops, soit 1000 milliards de milliards d’opérations par seconde), le cerveau humain est le plus impressionnant des hypercalculateurs que l’on puisse connaître.

Mais c’est un calculateur. C’est une machine. Très complexe, certes, mais c’est une machine. Et c’est d’ailleurs de cette dernière que se sont inspirés les chercheurs pour développer les premiers réseaux neuronaux, et c’est encore aujourd’hui par bio-mimétisme, c’est à dire en essayant de comprendre le cerveau et en appliquant les concepts maîtrisés à la machine qu’ils améliorent cette dernière.

Un réseau neuronal n’est pas si différent d’un cerveau dans ses concepts de base. Sans rentrer dans les détails, un neurone artificiel (c’est à dire un neurone issu d’un modèle IA RNN ou CNN) est une fonction d’activation appliquée à un signal, exactement comme dans le cerveau. Si l’on est encore incapable de reproduire la complexité des échanges qui se déroulent dans le réseau neuronal du cerveau humain, c’est bien de ce dernier dont on s’inspire pour faire évoluer nos modèles IA les plus avancés. A titre d’exemple, une fonction d’activation des plus célèbres et qui a permis d’améliorer grandement nos modèles est la fonction d’activation ReLU (Unité de Rectification Linéaire) qui a été directement inspirée par les neurones du cerveau humain.

Si nous ne connaîtrons probablement rien de semblable de notre vivant, il est malgré tout envisageable qu’un jour nous parvenions à améliorer la machine jusqu’à la rendre indissociable du cerveau humain dans son fonctionnement, dans sa complexité, et dans sa capacité à s’adapter, à être donc, véritablement intelligente.

Mais nous n’en sommes pas là.

Données biaisées

L’IA n’est pas bête et méchante. Elle est seulement bête. Un peu comme un enfant qui reproduirait ce qu’il observe de ses parents par mimétisme, la machine va apprendre grâce aux données dont on l’alimente, et réutiliser cet apprentissage, ce modèle entraîné, pour répondre à de futures sollicitations.

Si vous avez peur du noir, votre enfant a très peu de chance de se sentir à l’aise la nuit dans sa chambre à moins de lui apporter un peu de lumière.

Si votre machine utilise une base de données d’apprentissage qui contient une majorité de personnes à peau claire, n’espérez pas qu’elle agisse en faveur des personnes à peau plus foncée. C’est exactement ce qui est arrivé à cette intelligence artificielle censée reconnaître les personnes qui traversent la rue :

Dans le cas d’Amazon et de son algo de recrutement, l’explication est plus ou moins la même. On a entraîné un modèle à effectuer le recrutement d’Amazon , mais plus efficacement. Encore faut-il définir l’efficacité, car s’il était effectivement sexiste et raciste, l’algo développé n’en était pas moins super efficace au regard de ce qui lui était demandé.

Précisément, ce qui lui était demandé, c’était de regarder les CVs des candidats qui avaient été embauchés par Amazon, d’observer les caractères communs des personnes recrutées, de les mémoriser, et, pour un CV donné, d’être capable de dire si oui ou non il correspondait à ce qui était généralement attendu d’un candidat.

Tout ceci pour dire que, si l’algorithme a évité les femmes et les personnes dont la nuance de peau s’éloignait un peu trop du laiteux, c’est parce que le recrutement Amazon fonctionnait ainsi, rien d’autre.

Si l’on a pu lire un peu partout — et s’en amuser beaucoup — qu’Amazon avait abandonné ses travaux car le vilain algorithme était fascho-machiste, il aurait fallu dire—et probablement s’en amuser un peu moins — que c’était car l’algorithme n’était doué d’aucune improvisation et qu’il s’était un peu trop assidûment attelé à la tâche qui était la sienne, recruter comme Amazon le fait, c’est à dire avec des gens qualifiés qui ne soient ni trop femmes, ni trop colorés, mais beaucoup plus rapidement.

Les données, analysées, filtrées et comprises maladroitement par un cerveau informatique qui s’autorise de vastes approximations, disent aussi parfois des choses que l’on ne souhaiterait pas entendre, et pour lesquelles, déterminer un coupable s’avère périlleux. Rassurez-vous, la foule (twitter) se charge toujours de le désigner, mais est-ce le bon ?

La suite à venir …

--

--

Mathieu Canzerini
InTech / Innovation & Development

Coding, Education, Science, Politics, Series, Video Games, Sport, Karate