Médias et intelligence artificielle : La modération automatique est-elle pour bientôt ?

A l’heure du machine learning et de “l’intelligence artificielle”, comment le journalisme est-il impacté par ces évolutions ? Exemple d’un champ d’applications pour les médias en cours de test : celui de la modération des commentaires.

Le New York Times a réouvert progressivement les commentaires sous ses articles en ligne, avec l’aide de Jigsaw, une société spécialisée dans l’intelligence artificielle soutenue par Google. L’algorithme — nommé Perspective — détecte le niveau de toxicité d’un article sur une échelle de 1 à 100, en se basant sur le champ lexical. Il a été utilisé aussi par Wikipedia, The Guardian et The Economist.

Cette notation permet aux modérateurs du New York Times de gagner du temps et d’intervenir en priorité sur les messages posant problème. Pour que le système fonctionne, c’est aux humains — aux modérateurs et aux ingénieurs dans ce cas — d’alimenter le programme, de l’entraîner, de le mettre à jour en permanence. Les archives des commentaires déjà modérés ont servi de base de travail, ainsi que des pages provenant de Wikipedia. C’est ce qu’on appelle le “machine learning”. Pour que le programme reconnaisse un chat sur une photo, on lui fournit des milliers de photos de chats, jusqu’à ce qu’il ne fasse plus d’erreurs de reconnaissance.

Dans cette étape d’apprentissage peuvent s’insinuer les biais qui génèrent ensuite de mauvaises réponses voire des réponses discriminantes ou racistes. Cela avait été le cas dans un programme de reconnaissance d’images de Google qui avait labellisé comme “singes” des personnes noires, ou lors du lancement de Tay, le bot “intelligent” lancé par Microsoft sur Twitter.

Bien nourrir son programme

La façon dont sont paramétrés puis nourris les programmes est essentielle dans la représentation qu’ils donnent du monde et des personnes, comme l’a montré Latoya Sweeney (Harvard, data privacy lab) en 2013. Elle a testé des recherches avec des prénoms majoritairement donnés à des enfants noirs aux Etats-Unis, puis d’enfants blancs.

(capture écran foreverdata.org/onlineads/index.html)

Dans le premier cas, les publicités contextualisées de Google proposaient des services de recherches sur des arrestations et dossiers criminels potentiels. Dans l’esprit d’un employeur qui “googlerait” les prénom et nom d’un candidat, cela peut sous-entendre un passé criminel même si c’est totalement faux et être fortement préjudiciable au candidat.

En 2016, Kate Crawford, spécialiste de l’intelligence artificielle et chercheuse chez Microsoft, mettait aussi en avant les biais discriminants des intelligences artificielles un article intitulé “Artificial Intelligence’s White Guy Problem”. L’origine de ces erreurs viennent selon elle des jeux de données qui sont utilisés pour “nourrir” les programmes. “Comme toutes les technologies, l’intelligence artificielle reflète les valeurs de ses créateurs”, souligne Kate Crawford.

Créer des dictionnaires pour enseigner aux programmes

Dans la même logique, si un programme n’est pas correctement nourri de jeux de données et du vocabulaire utilisés par les militants extrémistes, il ne pourra pas en déceler de traces dans les commentaires. En cela, le choix de départ des équipes qui éduquent ces intelligences artificielles est primordial.

Caroline Sinders, machine learning designer et chercheuse sur le thème du harcèlement en ligne, a par exemple établi un dictionnaire du langage que l’extrême droite américaine utilise en ligne (dictionnaire notamment utilisé par ProPublica).

(Présentation de son travail par Caroline Sinders à Re:Publica, mai 2017)

Derrière des mots quotidiens sans connotation apparente (“tempête quotidienne”, “alliance nationale”…) se diffusent en réalité des idées et propos racistes et discriminants. Encore faut-il être en mesure de le détecter. “Ce “savoir” n’est pas constitué. Les systèmes de machine learning sont incapables de reconnaître ce vocabulaire de haine car il n’y a aucune base d’apprentissage” pour les nourrir, explique Caroline Sinders.

De plus, les évolutions rapides de vocabulaire pour passer sous les radars des filtres automatiques nécessitent des mise à jour permanentes qui doivent être fournies aux programmes de modération. Grâce au machine learning et à des bases de données actualisées en permanence, ces programmes deviennent de plus en plus aptes à détecter le vocabulaire problématiques et déclencher des alertes.

Mais les mots seuls ne suffisent pas. Pour détecter les commentaires injurieux, diffamatoires, racistes, sexistes, il faut pouvoir les replacer dans un contexte culturel et ainsi comprendre leur double sens ou références, ce que les programmes d’intelligence artificielle ne peuvent pas effectuer. Dans le travail de modération, une partie significative des interventions tient à décider si un propos est ou non raciste, discriminant, tombe sous le coup de la loi. La ligne est parfois très difficile à tracer car les propos ne sont pas toujours expressément contrevenants.

Enseigner le contexte culturel aux IA

En France, la loi (sur la liberté de la presse, 1881) cadre plus ce qu’on peut publier ou non qu’aux Etats Unis. Le premier amendement de la constitution américaine et sa protection de la liberté d’expression permettent de tenir des propos jugés en France antisémites ou racistes par exemple. Il faut donc adapter nationalement les aptitudes et bases de données des programmes de modération.

Le travail effectué par les modérateurs du NYT ne pourrait pas suffire pour implémenter Perspective tel quel sur le site du Monde ou du Figaro par exemple. Il faudrait y ajouter :

  • une version française
  • des éléments contextuels et culturels
  • des définitions claires et publiques de ce qui est acceptable ou non pour ces sites
  • la détection des stratégies d’adaptation pour passer sous les contrôles automatisés (le changement de vocabulaire lors de harcèlement par exemple)
  • idéalement associer des chercheurs et des ethnologues dans le processus de formation des modérateurs pour mieux comprendre ce qui se joue dans ces espaces

Mon expérience chez Newsring (site de débats en ligne calqué sur l’émission télé de Frédéric Taddéï lancé fin 2011 où j’ai couvert l’élection présidentielle de 2012) m’a appris énormément sur la modération, les trolls et la distance à avoir, mais aussi sur la difficulté de modérer certains commentaires dont les auteurs sont maîtres en flirt avec la ligne jaune. Deux outils étaient à notre disposition et nous nous en servions systématiquement : la charte du site qui cadrait la participation des internautes et la loi française (un rappel à la loi permettait souvent de calmer les esprits).

Quand on travaille sur la modération, on apprend le vocabulaire tendancieux assez rapidement, certains mots sonnent comme des alertes. Ce savoir, qui évolue selon les modes linguistiques des trolls, harceleurs et de la fachosphère notamment, est rarement organisé, répertorié de manière ordonnée. Il est donc difficile à transmettre à des programmes de machine learning.

Pour Caroline Sinders, “il faut appréhender les IA comme des outils collaboratifs, comme des extensions de soi, et non pas comme des tiers autonomes”. En accompagnant le programme, on peut lui apprendre à détecter du futur vocabulaire posant problème. Mais cette évolution dépend de ce qu’on lui “donne à manger”. Les rédactions ont là un travail à effectuer pour assurer correctement le contrôle de leur modération.

Les failles de la compréhension machine

Quand l’intelligence artificielle de Perspective note la toxicité d’un message, comment est définie la notion même de toxicité et par qui ? A-t-on défini en interne une charte, des critères… ?

Si les jeux de données servant de base de travail viennent de quelques journaux (NYT, Guardian, The Economist qui sont partenaires du projet) comme supposé par Caroline Sinders, ils sont déjà spécifiques. “Rien à voir avec du langage commun”, prévient-t-elle. Résultat, Perspective ne détecte pas la toxicité de certains phrasés pourtant commun et largement utilisé par la sphère d’extrême droite si un humain ne lui indique pas qu’ils posent problème. Il faut lui enseigner jour après jour à reconnaître les mots et expressions problématiques.

Les machines font de nombreuses actions mieux et plus vite que les humains (scruter des masses d’images et de données par exemple), mais elles ne comprennent ni le sarcasme ni l’ironie. Elles analysent des mots sans pouvoir les comprendre dans leur dimension culturelle.

Les humains, eux, sourcent les informations, comprennent le contexte, posent des questions, suivent le sujet dans le temps. Ils font preuve d’empathie, de curiosité, d’intelligence émotionnelle, prennent des initiatives pour expérimenter de nouvelles choses, peuvent penser à différentes disciplines.

Pour comprendre la difficulté de la modération, le NYT vous met dans la peau de ses modérateurs, vous avez 5 commentaires à relire et modérer. Puis le site vous indique le temps que vous avez mis et le temps qu’il vous faudrait pour modérer les 11 000 commentaires postés sur le site chaque jour. Les modérateurs du New York Times valident tous les commentaires postés sur son site manuellement. Autant dire un travail titanesque.

En prenant en compte le temps de modération, le volume de commentaires à modérer, la difficulté de cette modération liée aux évolutions de langage, au contexte culturel etc, on comprend que le rêve de la modération toute automatique n’est pas pour tout de suite. En janvier 2018, Yann Lecun, directeur de la recherche sur l‘intelligence artificielle chez Facebook, douchait les enthousiastes les plus débridés sur les capacités réelles de l’intelligence artificielle.

Sur ce point, la plupart des experts s’accordent pour dire que l’humain reste la réponse viable et performante pour modérer les contenus en ligne. Même si Mark Zuckerbeg, lui, a répété lors de son audition devant le congrès américain en avril 2018 qu’il misait dessus, et cela malgré les biais pointés à plusieurs reprises contre le réseau social.

Lucas Dixon, “chief scientist” chez Jigsaw et qui travaille sur Perspective, veut utiliser lui le deep learning pour détecter des modèles plus complexes de reconnaissances. De là, il serait possible pour les machines de comprendre les émotions qui sous-tendent les discussions et les commentaires. Concrètement, cette question pourrait s’illustrer avec cette interrogation : comment faire comprendre à une machine que “gay” n’est pas qu’une insulte alors que le mot est utilisé principalement de manière insultante sur internet ? (A noter que IBM propose un analyseur de textes qui indique l’émotion principale d’un texte).

L’AI pour créer des “safe zone” et de la confiance

Pourquoi ne pas s’en tenir à la fermeture des commentaires sur les sites de médias puisque leur traitement est si chronophage ? En réalité, les médias ont intérêt à construire des zones sans danger (“safe zone”) dans leurs espaces de commentaires, car ce sont des espaces communs et publics. C’est ce cadre sans danger qui permet une contribution intelligente, intéressante et utile au débat et aux échanges. Qui permet la création d’une véritable communauté, fidèle, participative, qui vous alerte, vous dit ce qui se passe et ce qui ne va pas sur votre plateforme. Et qui permet à long terme d’augmenter le nombre de vos abonnés (stratégie adoptée par le NYT).

C’est cette démarche que nous avions essayé de mettre en place sur Newsring. C’est également ce que Rue89 avait instauré avec ses riverains. Mais cela prenait du temps, du temps humain déjà cher. Peu de médias aujourd’hui travaillent réellement leurs commentaires alors que là se situe une partie de la relation de confiance avec le lecteur fidèle et bienveillant, attentif.

La modération automatique, une bonne idée ?

Si la modération automatisée devenait techniquement possible bientôt, serait-elle souhaitable ? Nicklas Lundblad, directeur des politiques publiques et des relations gouvernementales pour l’Europe et l’UE Google, aimerait que la question soit posée publiquement. “Est-ce qu’on veut, est-ce qu’on doit s’en remettre à une machine pour prendre les décisions ?”, demandait-il à la conférence RePublica en 2017. Car les commentaires forment un espace public qui doit être régi par des règles. C’est la charte de bonne conduite qu’on retrouve sur de nombreux sites de médias par exemple. Mais quid d’une régulation automatique de cette sphère publique ?

Le machine learning permettra-t-il à terme de baisser le coût de cette modération puisqu’il fait gagner du temps aux journalistes qui en sont en charge ? Depuis les débuts de l’expérience Perspective, le NYT a triplé le nombre d’articles ouverts aux commentaires. Dans une vidéo récente, Bassey Etim, responsable modération du prestigieux journal, précise que : “maintenant chaque histoire sur la page d’accueil a des commentaires”. La modération totalement automatisée n’est probablement pas pour demain, mais les algorithmes permettent de réinvestir le champ de la relation avec les internautes. C’est en tout cas le pari du New York Times.