Pour y voir plus clair parmi les très nombreux documents qui traitent d’éthique+IA

Deux publications en ce début 2020 offrent un panorama fouillé de plusieurs dizaines de documents émis par des États, des entreprises et des organisations non gouvernementales, sur les sujets d’éthique liée aux systèmes d’intelligence artificielle. Elles proposent des indicateurs et des catégories pertinentes et particulièrement bienvenues.

Ay. Poulain Maubant
8 min readFeb 14, 2020

How to build ethical AI”, “8 ways to ensure your company’s AI is ethical”, “AI is here to stay, but are we sacrificing safety and privacy?”, “Research network for ethical AI launched in the UK”… florilège de quelques résultats à la toute simple requête Ethics AI dans Google Actualités le 13/02/2020. Et ce n’est pas récent, cela fait des mois que cela dure. Comment s’y retrouver parmi tous les discours, les initiatives, les engagements, les chartes, les cadres éthiques, les déclarations de principes, les dérapages de tel ou tel systèmes d’IA, les faux problèmes, les bonnes pratiques, les experts en tout genre ? D’autant que lorsqu’on creuse un peu, l’éthique dont il est question n’est pas la même pour tout le monde.

Un peu avant l’été 2019, une infographie proposée par une équipe de Harvard faisait ainsi état d’un travail en cours, un long travail de lecture de 32 documents venant de diverses sources (depuis 2016), qui tous traitaient de près ou de loin d’éthique+IA. Leur étude approfondie a permis de dégager 8 principes généraux (plus un : les Human Rights). Comme le montre l’extrait ci-dessous d’une infographie qui avait été rendue publique, le travail réalisé était impressionnant (l’image complète faisait 10801x18950 pixels), et prometteur.

Extrait de l’infographie “Principled Artificial Intelligence”, pré-publiée en juin 2019

32 documents analysés à l’époque, 36 dans la publication finale (nous y reviendrons), et pourtant cela est bien en-deça du nombre de documents officiels que l’on peut trouver sur ces sujets.

Un panorama sur 88 documents

Les 7 et 8 février derniers s’est tenue à New York la 3e conférence conjointe AAAI/ACM intitulée Artificial Intelligence, Ethics, and Society (AIES 2020), hébergée au sein de la conférence plus large (et plus ancienne ; c’est la 34e édition) AAAI 2020. (Si j’en parle, c’est aussi parce qu’à part un Français dans le comité de programme, je n’ai trouvé aucune trace de Français/es dans les papiers et posters retenus, et personne non plus en France à participer aux échanges sur Twitter. Je dois dire que je trouve cela un peu préoccupant.)

Parmi la multitude de publications et de posters, j’ai relevé un très prometteur What’s Next for AI Ethics, Policy, and Governance? A Global Overview. Prometteur parce que le résumé commence ainsi : “Since 2016, more than 80 AI ethics documents — including codes, principles, frameworks, and policy strategies — have been produced by corporations, governments, and NGOs.” 88 documents, très exactement (sortis entre 2016 et juillet 2019) ! Et encore, la lecture du papier (de 6 pages, ce n’est pas long à lire ; ce billet est rédigé pour vous donner envie de le lire) révèle qu’il s’agit de documents en langue anglaise (mais pas tous de pays dont la langue principale est l’anglais), ce qui a peut-être laissé de côté des travaux non produits ou non traduits en anglais.

Les auteurs nord-américains, Daniel Schiff, Justin Biddle, Jason Borenstein, Kelly Laas, trois hommes et une femme, forment une équipe pluri-disciplinaire : un chercheur en sciences politiques, deux philosophes, et une spécialiste des sujets d’éthique. Leur lecture attentive de ces documents consistait à détecter notamment la présence ou l’absence de 25 points d’éthique spécifiques et de 15 secteurs d’activité. Leur panorama n’est encore que partiel, mais déjà riche d’enseignements. Il s’adresse aux femmes et hommes de l’art, aux chercheuses et chercheurs, aux politiques et à toutes les parties prenantes pertinentes.

(Donc vous, puisque vous êtes en train de lire ce billet)

Il répond — et ce n’est là que le début de leur recherche en cours — à ces trois premières questions :

  1. Qui crée ces documents qui parlent d’éthique+IA ?
  2. Pour quelles raisons sont-ils produits ?
  3. Quels impacts ces documents pourraient-ils avoir sur la gouvernance mondiale de l’IA?

Secteur public, privé, et ONG se penchent sur l’éthique+IA

50 de ces documents proviennent du secteur public, 20 du secteur privé, et 18 d’organisations non gouvernementales. Le périmètre que ces diverses organisation choisissent, leur positionnement, leurs motivations, leurs influences respectives, leurs objectifs, leur portée effective, sont autant d’angles qui sont fouillés dans ce papier très utile. Il faut le lire car les caractéristiques et la typologie qui ont été extraites permettent de mieux appréhender les impacts que ces documents pourraient avoir sur la vision mondiale de éthique+IA, et sur la gouvernance mondiale de l’IA, et mieux cerner quels facteurs seront pertinents pour évaluer si un document donné
est susceptible de réussir à atteindre ses objectifs. Comprendre ces aspects permettra aux acteurs et aux observateurs de mieux saisir ce qui se passera quand les souhaits de gouvernance de l’IA passeront des principes aux politiques.

La publication débute par une revue des trois types d’organisation ayant émis de tels documents, et leurs jeux de pouvoir respectifs. Certains pays, par exemple, ont rédigé ces documents pour pouvoir être assis à la table des gens qui comptent (IA=pouvoir). La grande majorité des pays s’exprimant sont ceux aux économies déjà florissantes, ce qui pose un certain nombre de problèmes en terme de représentativité des sujets qui comptent (par exemple l’agriculture, le tourisme, les infrastructures…), et de fracture technologique grandissante. Une remarque pertinente parmi d’autres : “[…] l’automatisation du travail des enseignants ou des professionnels de la santé via la télésanté ou des systèmes de tutorat intelligents pourrait réduire les investissements dans les infrastructures éducatives et sanitaires de ces pays, excluant des voies de développement plus appropriées pour viser des améliorations de court terme ou de simples profits.” Côté secteur privé, les déséquilibres entre grands industriels de l’Internet et PME, startups, voire grandes entreprises n’ayant pas bien pris le chemin numérique, sont soulignés. La conception collaborative des documents issus des organisations non gouvernementales, impliquant des citoyen/nes est mise en avant comme un point très positif, mais leur provenance (ONG) reflète aussi leur impuissance à peser directement sur les choix techniques ou politiques. En revanche, vu la qualité de leurs réflexions, leur influence sur les deux autres groupes étudiés n’est pas négligeable.

Des motivations variées

Dans une deuxième section, les trois auteur/es étudient plus finement les motivations des acteurs présentés ci-dessus. Il s’agit de (et c’est valable pour les trois types d’acteurs) :

  • responsabilité sociale : promouvoir les bénéfices sociaux des IA et en réduire les risques
  • établir / disposer de / donner à croire que l’on a un avantage compétitif (économique, politique)
  • disposer d’un plan stratégique interne, ou produire un document de principes éthiques pour changer l’organisation de l’intérieur
  • disposer d’un plan stratégique à visées externes : intervenir dans l’environnement juridique, économique, social, politique d’un tiers (autres pays, autres organisations, politiques menées…)
  • montrer qu’on est concerné par les questions d’éthique+IA (avec des dérives EthicsWashing) et envoyer de tels signaux aux autres
  • envoyer des signaux aux autres en terme de leadership

Ces six catégories de motivations, largement illustrées, dessinent un paysage complexe où des combinaisons diverses, et pas toujours cohérentes, sont possibles. Les auteur/es répètent plusieurs fois qu’ils n’ont fait qu’effleurer ces sujets, et posent de nouvelles questions, ainsi que des principes de méthodologie à adopter. Rien que ceci devrait appeler à l’extrême modestie de celles et ceux qui disent que les questions d’éthique ont été amplement étudiées, et qu’il est temps de passer à présent à la pratique et au déploiement sur le terrain de technologies posant pourtant encore de nombreuses interrogations.

Quels impacts sur la future gouvernance des IA ?

Troisième et dernière grande section de ce panorama : comment ces documents façonnent le paysage mondial des réflexions sur la gouvernance des IA. Ces documents s’influencent les uns les autres, et construisent le paysage de manière assez stigmergique. Les impacts en interne des organisations (évolution des politiques et chartes internes) et en externe (influence sur des acteurs semblables) sont déjà mesurables. La perception que l’on peut avoir de tel ou tel acteur et la réputation qu’il acquiert peut découler directement de ces documents. Plus subtilement, les projecteurs mis sur tel aspect éthique plutôt que d’autres peuvent façonner la perception de ces enjeux par le grand public, ou bien mettre en avant une notion plus durablement qu’une autre (une discussion sur explainability vs transparency illustre notamment ce point). Plus fortement, ces documents peuvent constituer en de véritables prémisses de futures lois, ou axer la recherche et le développement vers telle voie plutôt qu’une autre. Enfin, plus largement, certains documents exercent déjà une influence sur les parties prenantes, et notamment sur le secteur éducatif (de la formation initiale à la formation tout au long de la vie).

Cette troisième section se termine par l’énoncé de 5 paramètres permettant de mesurer l’éventuelle réussite de ces documents à atteindre leurs objectifs (et à mesurer leur sérieux) :

  • leur impact sur le juridique et la gouvernance (y compris les normes, les politiques menées…)
  • le niveau de détail de leurs recommandations, et d’effectuabilité de leurs stratégies
  • leur portée, en terme de lectorat (et à ce titre une déclaration comme celle de Montréal, que tout un chacun peut signer, a une portée majeure)
  • la réelle possibilité pour des tiers d’examiner si l’organisation émettant un tel document met effectivement ses principes en œuvre
  • le fait que le document n’est pas figé et reconnaît qu’il s’agit encore de sujets qui doivent évoluer et qui nécessitent des itérations

Je vous redonne le lien vers le document : What’s Next for AI Ethics, Policy, and Governance? A Global Overview

8(+1) principes faisant consensus

Saurez-vous trouver le document le plus complet ?

L’équipe de Harvard dont je parlais au début a de son côté mis en ligne sa publication complète le 15 janvier dernier. Leur étude porte à présent sur 36 documents.

Principled Artificial Intelligence — Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI” est un document de 40 pages, y compris les deux infographies Radar et Timeline, qui complète parfaitement la publication ci-dessus. Les 8(+1) principes sont : privacy, accountability, safety and security, transparency and explainability, fairness and non-discrimination, human control of technology, professional responsibility, and promotion of human values (+ human rights), et je les laisse en anglais car leur traduction précise pour établir de réelles correspondances avec les travaux en français (et pas seulement en France) nécessiterait un billet en soi. Bonne lecture (et parlons-en sur Twitter, il y a des hashtags pour cela).

Pour aller plus loin

Deux de mes articles ici, connexes à ce billet :

Le 6 mars prochain, je ferai une intervention sur le thème du développement responsable des systèmes d’IA dans le cadre d’un rendez-vous de trois jours autour des IA organisé à Brest. C’est le midi, c’est en accès libre, il suffit de s’inscrire sur Brest Is AI.

J’ai commencé l’année dernière à plus angler mes interventions IA sur ces aspects, et de manière plus générale sur la science et la technologie responsables. Si cela vous intéresse de travailler avec moi sur ces sujets (interventions orales, documents écrits…), jetez un coup d’œil à mon site Nereÿs, et prenons contact.

--

--

Ay. Poulain Maubant

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV