Que disent de nous nos Intelligences Artificielles enfouies ?

Avez-vous remarqué que le correcteur orthographique de votre mobile évolue doucement depuis que vous l’utilisez ? Que certaines corrections / suggestions intempestives apparaissent plus souvent que d’autres, puis moins souvent ? Que certaine suggestions apparaissent soudainement ?

J’ai pas mal parlé d’AI sur Facebook ces derniers jours, et hop, mon correcteur s’est trouvé une nouvelle passion : changer tous mes “ au ” en “ ai ”. Ai secours !

Matthieu proposait ce weekend un jeu amusant avec l’autocorrecteur.

C’est un peu de l’écriture automatique. Du cadavre exquis à la sauce mobile. Qu’est-ce que cela donne chez vous ? Probablement quelque chose de différent de votre voisine. Même si le premier mot est le même (“le”, “je”…) pour la plupart d’entre nous (?), le reste se construit en fonction d’une exploration de notre dictionnaire embarqué, exploration calculée non seulement à partir des mots qui se suivent le plus souvent (c’est la base de l’algorithme d’auto-completion, et cela s’applique dès les premières lettres des mots que vous tapez), mais également des mots que l’on utilise le plus souvent. Qui, à force, sont les mots qu’on utilise le plus souvent. Qui à force, sont les mots qu’on utilise le plus souvent. Qui à STOP !

Cette exploration de notre dictionnaire dit donc quelque chose de nous. Notre AI amicale qui gère ce petit algo d’auto-correction / auto-completion a peu à peu appris de nous et nous renvoie une certaine image de nous.

by Lulu Hoeller, CC BY 2.0

Par mesure de prudence, il vaut d’ailleurs peut-être mieux ne pas trop en parler autour de soi. Il n’est pas rare de voir des gens s’amuser publiquement de ce que leur auto-correcteur leur a proposé (ou, et c’est la même chose, le type de publicités qu’ils voient), sans se rendre compte qu’ils en révèlent un peu sur leurs ressorts internes.

D’ailleurs, cette AI qui apprend de nous, et nous révèle au passage, on la retrouve à une échelle plus importante avec les chatbots, tels la récente Tay de Microsoft, bien mal éduquée par l’ensemble des internautes à qui elle avait été confiée imprudemment. Là, l’AI en a révélé un peu plus que prévu sur notre Société.

Et, le saviez-vous, ces algorithmes n’apprennent pas seulement de règles universelles globales, ou de règles particulières apprises auprès de vous, mais également de règles stéréotypées, sur votre genre, le pays où vous vivez, ou des historiques de recherche ? Autrement dit, des cases de prédestination. (si ça vous intéresse, voici un papier PDF de Microsoft de 2013 sur le sujet : Learning to Personalize Query Auto-Completion)

Pensez-y la prochaine fois que votre auto-correcteur vous fait une suggestion incongrue. Ce pourrait bien être une petite voix interne qui a des choses à vous dire…