Pour y voir plus clair sur les notions de transparence et d’explicabilité en IA

Dès que l’on parle d’éthique et d’IA, ou d’algorithmes et d’éthique, deux exigences, deux principes, deux propriétés, la transparence et l’explicabilité, sont souvent posées comme fondamentaux — d’autres principes importants ne peuvent s’établir sans eux — ou comme centraux — d’autres principes importants semblent en découler. Malheureusement, leur essentialité va de pair avec leur polysémie. Selon qui les emploie dans son discours, ils n’ont pas la même signification, et les malentendus pour les mettre en œuvre peuvent vite arriver. Quelques points de repère pour en distinguer leurs composants et leurs rapports respectifs nous semblent utiles à mettre par écrit.

Ay. Poulain Maubant
34 min readFeb 27, 2020
Soyons clair, je ne m’explique pas comment j’ai toujours une photo à moi qui correspond à mon sujet.

Pourquoi c’est important

Parce que l’actualité en France bruisse régulièrement de considérations sur la régulation des espaces et des usages numériques, à la faveur de telle ou telle affaire, exigeant ici plus de surveillance ou là une levée d’un supposé anonymat. Et que savoir ce que recouvrent les mots est un préalable toujours nécessaire.

Parce que ces principes sont évoqués dans tous les propos concernant la Gouvernance des Intelligences Artificielles, et qu’on les retrouve et retrouvera dans les politiques, les lois, les normes, les régulations, les plans nationaux stratégie IA, les pratiques professionnelles, les pratiques quotidiennes…

Du reste, alors que j’écrivais cet article (et pensais le produire en une journée), la Commission européenne publiait le 19 février 2020 plusieurs documents-jalon sur sa stratégie en matière de données et en matière d’intelligence artificielle.

Parce que selon qui en parle et en quelles circonstances, que ce soit dans un cadre technique, juridique, sociologique, politique etc., ces deux termes sont des exigences qui engagent, des principes qu’il faut suivre, ou des propriétés qu’on observe. Ils n’ont pas toujours la même puissance, l’un par rapport à l’autre, ou par rapport à d’autres notions nécessitant une attention comparable. En Europe et pour l’instant, la Transparence inclue ainsi l’Explicabilité, et le propos de notre article est de dire notamment que cela n’est pas aussi simple que cela.

(Dans la suite, nous dirons plus souvent : les principes de Transparence et d’Explicabilité.)

Parce que si des systèmes d’Intelligence Artificielle ne respectent pas les principes de Transparence et d’Explicabilité (et toutes leurs nuances), ils ne devraient pas être déployés / mis sur le marché.

Parce que Transparence et Explicabilité sont deux conditions essentielles pour construire, consolider, établir et préserver la Confiance dans le numérique.

Parce qu’un des premiers propos qu’on entend régulièrement pour décrire les IA est qu’il s’agit de boîtes noires. Or il n’y a pas de fatalisme à ce que cela reste des objets mystérieux, incompréhensibles et incapables par essence d’apporter la compréhension de leur fonctionnement. Même si c’est pas facile.

Dans cet article, je me propose donc d’explorer les termes du débat, en m’appuyant sur un certain nombre de productions récentes, de publications de documents officiels, et de conversations en cours sur les réseaux sociaux. Ce n’est probablement pas exhaustif, et ce n’est pas non plus aussi travaillé qu’un état de l’art en début de thèse. N’hésitez donc pas à apporter votre contribution en commentaire.

Prolégomène 1 : c’est un débat parmi d’autres

Plusieurs grandes discussions ont lieu actuellement à propos des (systèmes d’)Intelligences Artificielles. Ces conversations ont lieu sur les réseaux sociaux, dans les conférences scientifiques ; elles sont parfois relayées dans la presse. Chacune correspond à un point de vue adopté pour observer les IA, et elles sont souvent cantonnées dans leur propre sphère de contributeurs. Tomber sur un de ces débats peut amener à penser qu’il s’agit du Débat essentiel du moment. Or, ils sont liés, je pense. Je les liste ici, pour ne pas les écarter du paysage, mais également pour annoncer que ce n’est pas l’objet de ce billet :

  • Le débat sur les IA générales, quand est-ce qu’on y arrive, est-ce qu’on y est presque ou pas, et plus généralement les considérations transhumanistes associées… (dans ce cadre, je recommande l’article en anglais How to know if artificial intelligence is about to destroy civilization paru le 25 février 2020)
  • Le débat sur la (re)définition du (est-ce un projet de recherche, un projet industriel ?) Deep Learning (Apprentissage profond), et, accompagnant ce débat, celui sur les systèmes hybrides en IA…
  • L’ensemble des discours sur les applications, les services à base plus ou moins d’IA, et les startups et financements qui vont avec, champ médiatique que je vais amicalement désigner par : la “hype marketing”.

Par ailleurs, ce billet traite principalement des ajustements de définition de la Transparence et de l’Explicabilité tels qu’ils sont établis dans les contextes de gouvernance des IA, dans les conversations sur les réseaux sociaux, dans la presse et dans le discours politique. Les mêmes sujets sont également explorés d’un point de vue scientifique par des scientifiques de nombreuses disciplines et selon la méthode scientifique, j’en dirai quelques mots (section 4).

Prolégomène 2 : un débat reposant sur des définitions de l’IA, et de l’éthique+IA, qui restent à adopter

Dans notre chapô plus haut, nous écrivons “Dès que l’on parle d’éthique et d’IA, ou d’algorithmes et d’éthique”, car il est nécessaire de prendre quelques précautions oratoires. À certains égards les IA font partie de la classe des algorithmes, mais ce ne sont pas que des algorithmes (ce sont aussi, par exemple, des objets socio-techniques), et quand ils le sont, ce sont des algorithmes assez particuliers. Les limiter à leur forme algorithmique revient rapidement à ignorer l’importance des humains dans la boucle, des humains dans la conception de ces systèmes, ou des interactions des humains avec ces systèmes. Cela entraîne souvent une réflexion inaboutie des considérations éthiques à soulever.

C’est pourquoi bien s’accorder sur ce qu’on entend par Intelligences Artificielles (ou systèmes d’IA) est un préalable, et voir les définitions adoptées est riche d’enseignement. Voici par exemple ce que le Groupe d’experts de haut niveau sur l’intelligence artificielle en Europe avait retenu début 2019. Texte extrait de : European Commission’s High-Level Expert Group on Artificial Intelligence, ‘Ethics Guidelines for Trustworthy AI (2019) p. 36 (et p. 48 pour la version française). Ce document sera cité à nouveau plus bas, en anglais ou en français (Groupe d’experts de haut niveau sur l’intelligence artificielle, ‘Lignes directrices en matière d’éthique pour une IA digne de confiance’) en faisant référence au “Groupe d’experts européens”. Noter que je mets en gras les documents de référence (il y en aura trois).

Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions. (Traduction officielle) Les systèmes d’intelligence artificielle (IA) sont des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la (des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné. Les systèmes d’IA peuvent soit utiliser des règles symboliques ou apprendre un modèle numérique, et peuvent également adapter leur comportement en analysant la mesure dans laquelle l’environnement est affecté par leurs actions préalables.

Gardons en tête une autre définition (et le fait que cette définition a été proposée), que l’on trouve dans le White Paper on Artificial Intelligence: a European approach to excellence and trust publié le 19 février 2020 par la Commission européenne. (Cité dans ce qui suit ainsi : “Le Livre blanc”)

En termes simples, l’IA associe des technologies qui combinent données, algorithmes et puissance de calcul.

Voilà une définition, beaucoup plus simple et peut-être trop simpliste. L’enjeu des définitions est cependant très important. En effet, à un moment donné, les IA seront définies dans un cadre juridique (lois, normes etc.) et si la définition est mal pensée, des systèmes numériques pourraient sortir du champ de la régulation des IA, alors même qu’ils devraient en être, et sortir ainsi du champ des questionnements éthiques associés. Ce point de vigilance commence à être de plus en plus souligné.

Gardons-nous de parler d’”IA éthiques”

Dans ce même élan de vigilance sur les mots employés, gardons-nous vraiment d’utiliser le terme d’”IA éthiques”. Il donne à croire que les IA (qu’on sait assez mal définir) exhiberaient des valeurs (l’éthique) alors que nous avons déjà du mal à nous accorder sur ces mécanismes parmi les humains (leurs constructions sociales et leur vivre-ensemble). S’il est question d’éthique, elle est propre aux humains. Et plus encore, s’il est question d’éthique, elle est sujette aux considérations, continuellement reformulées, que nous autres humains élaborons à propos de ce qui est moral, acceptable. Ce n’est ni quelque chose qui peut être délégué au sein des machines (un beau matin, on downloade de l’éthique dans le cerveau positronique du robot, et zou!) ni élaboré au seul sein des machines. C’est pourquoi le raccourci “IA éthique” est trompeur et misleading. (À lire : toute la première partie de “Thinking About ‘Ethics’ in the Ethics of AI”, Pak-Hang Wong, Judith Simon, 20 février 2020, qui introduit notamment l’idée d’éthique distribuée).

Alors bien sûr, on doit trouver un moyen de parler de tout cela sans devoir à chaque fois passer par la périphrase. Personnellement, quand je communique (ou quand je pense à) de manière raccourcie sur ces sujets, je préfère écrire “IA+éthique” ou “#AIEthics”, et m’obliger à préciser pourquoi je ne parle pas d’IA éthique.

Commençons à présent par une approche de ces principes à vol d’avion

1. Transparence & Explicabilité sont des principes fondamentaux pour qui vise une IA de confiance

Les auteur·es du panorama “Principled Artificial Intelligence // Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI” (dans la suite : le Panorama ; nous en expliquons la genèse dans notre billet précédent) ont relevé 8 ensembles de principes (8 catégories) qui sont inclus et traités, d’une manière ou d’une autre, dans les 36 documents qui ont fait l’objet de leur étude. Cette organisation en 8 thèmes (qui contiennent eux-mêmes des sous-thèmes) va structurer la réflexion internationale en cours et à venir, et il est bon de s’habituer dès maintenant à cette taxonomie. Les auteur·es du Panorama notent d’ailleurs que dans les documents les plus récents qu’ils ont analysés, ces 8 thèmes sont dorénavant présents, et identifiables per se, ce qui tend à montrer une certaine convergence des réflexions en question. Les auteur·es les désignent comme un “normative core” des principes éthiques et de gouvernance des systèmes d’IA.

Convergence internationale autour de 8 grandes catégories de principes favorisant le développement responsable des technologies IA

En voici donc la liste, pour mémoire (page 20 du rapport). Que cette liste séquentielle ne vous laisse pas croire à une hiérarchie. Les principes ci-dessous (et sous-principes) sont liés, certains deviennent les objectifs ou les mécanismes d’autres, et ceci se fait tour à tour (A et B peuvent être objectifs ou mécanismes réciproques ; il faut que quelqu’un produise une carte mentale de ces propriétés).

  • Privacy : les questions de vie privée, et particulièrement de respect de la vie privée, de droit à la vie privée…
  • Accountability : le principe de responsabilité. Attention à celui-ci, car la notion de responsabilité diffère sensiblement selon les cultures, l’Histoire et la manière dont le Droit s’est construit, selon les pays. En langue anglaise le mot responsabilité a plusieurs traductions, qui reflètent des points de vue distincts (et dont le détail dépasse amplement la longueur raisonnable pour cet article. Pour en savoir plus, consultez par exemple “De la démocratie en Amérique du Nord à l’accountability à la française”).
    Il s’agit ici, avec Accountability, de la responsabilité au sens de l’obligation à rendre des comptes (et à être en mesure de rendre des comptes) a posteriori, et non pas, par exemple, de qui est responsable d’effectuer une action donnée, ou qui se sent responsable. Le principe d’accountability est également une des nouvelles obligations introduites dans le RGPD (lire à ce sujet les pages 138 et 139 de “Signes de confiance - L'impact des labels sur la gestion des données personnellesouvrage de la Chaire Valeurs et Politiques des Informations Personnelles, janvier 2018, disponible en français et en anglais). J’écrirai donc plus loin “responsabilité-accountability”.
  • Safety and security : là aussi une traduction française immédiate pourrait donner deux fois sécurité, et choisir “sûreté” pour safety, sans autre précaution, ne convient pas. La sûreté (de fonctionnement) comporte quatre composantes, rappelle du reste la notice Wikipedia : la fiabilité, la maintenabilité, la disponibilité et la sécurité. On voit que la sécurité est, dans ce cas, incluse dans la “sûreté”. Comme précaution oratoire, on peut adopter : “Que le système soit sûr, et qu’il soit sécurisé”.
  • Transparency and explainability : c’est l’objet de cet article.
  • Fairness and non-discrimination : ces deux principes énoncent que l’on recherche des systèmes d’IA qui font ce qu’on leur demande de faire de manière juste, c’est-à-dire de manière équitable et impartiale, et qui le font sans discriminer des groupes d’humains.
  • Human control of technology : l’idée de garder les humains dans la boucle, à tout instant (conception, développement, déploiement…)
  • Professional responsibility : la responsabilité dont il est question ici est celle qui s’applique à titre personnel pour les professionnels, au sens de leur éthique personnelle, de leur déontologie, de leur intégrité (et non pas la responsabilité que l’on pourrait chercher auprès d’eux à titre personnel dans l’exercice de leurs fonctions professionnelles).
  • Promotion of human values : ensemble de principes rappelant que les plans de développement des IA doivent être compatibles avec, et contribuer à améliorer, les grands principes humains que sont : la dignité, l’intégrité, la liberté, la vie privée, la diversité culturelle et de genre, et plus généralement les Droits humains. Ceci s’étend également à la protection et l’amélioration des écosystèmes et de la biodiversité.

Les propriétés “transparency and explainability” figurent donc en bonne place dans ce panorama, section 3.4, pages 41–46 (dans cet article nous reprenons l’ensemble de ces pages). Les auteur·es du Panorama notent que ces deux principes figurent dans 94% des documents étudiés, seuls deux d’entre eux ne les abordant pas (deux documents provenant d’acteurs gouvernementaux, le Standards Administrations of China et le rapport élaboré par l’Ambassade britannique à Mexico).

Le Panorama donne de ces deux propriétés la définition suivante :

Principles under this theme articulate requirements that AI systems be designed and implemented to allow for oversight, including through translation of their operations into intelligible outputs and the provision of information about where, when, and how they are being used.

Que l’on pourrait traduire par : “Les principes regroupés sous ce thème énoncent des exigences selon lesquelles les systèmes d’IA doivent être conçus et mis en œuvre de manière à en permettre leur supervision, notamment par la traduction de leurs opérations en résultats intelligibles et par la mise à disposition d’informations sur le lieu, le moment et la manière dont ils sont utilisés.” Je préfère utiliser “supervision” (ou “suivi”) que “surveillance” pour traduire dans ce contexte “oversight”.

Les deux termes Transparence et Explicabilité sont donc ici liés à part égale, pourrait-on dire. Du reste, ils sont souvent utilisés de manière interchangeable dans la presse, quelle que soit la langue. C’est il me semble une erreur de les confondre, et c’est d’ailleurs ce qui a motivé ce billet. Car ils ne sont pas synonymes, ils recouvrent des notions diverses.

Transparence et Explicabilité ne sont pas synonymes et interchangeables

Pour s’en convaincre, voici une liste de termes qui leurs sont souvent associés, soit parce qu’il s’agit de sous-thèmes de ces deux principes, soit pour préciser quelle dimension de ces principes est à la manœuvre, soit en tant que mécanismes de mise en œuvre de ces principes :

  • interprétabilité, auditabilité, prédictabilité,
  • droit à l’information, consentement et usage éclairés,
  • notifications, reporting,
  • understandable AI, intelligibilité,
  • vérifiabilité,
  • accountability, liability, responsibility (cf. notre note plus haut sur l’importance de distinguer ces trois types de responsabilité),
  • contrôle humain de la technologie,
  • effectivenness

Transparence et Explicabilité, à la fois principes (de premier plan), exigences et propriétés, opèrent comme fondamentaux pour les autres principes et propriétés (qui ne pourraient pas se mettre en place si ces deux-là ne sont pas établis) et comme éléments centraux (d’autres principes et propriétés découlent directement, disons même naturellement, de ces deux premiers). C’est ainsi que l’équipe de recherche du Berkman Klein Center ayant produit le Panorama explique sur son site web que le principe de Responsabilité (Accountability) découle des principes Transparence et Explicabilité :

While commonsense reasoning remains one of the holy grails of AI, there are legitimate concerns about holding autonomous systems accountable for the decisions they make as well as the ensuing consequences, both intentional or unintentional. There are many ways to hold AI systems accountable. In our work, we focus on transparency and explainability — issues related to obtaining human-intelligible and human-actionable information about the operation of autonomous systems.

De la même manière, ces deux principes sont des prérequis au principe (au sous-principe) de prédicatibilité classé dans la thématique Safety & Security, ainsi qu’à l’ensemble des principes Fairness & Non-discrimination.

Saisir l’interdépendance entre Principes apporte une grande aide pour mieux lire la stratégie IA en Europe en train de se construire.

La stratégie IA en Europe repose en effet sur la notion de “Systèmes d’IA de confiance” (Trustworthy AI) qui a été portée par le Groupe des Experts européens dans leurs propositions début 2019, qui ont servi à la rédaction du Livre blanc publié le 19 février 2020. Cette IA de confiance désirée est rendue possible par les principes de Transparence, et d’Explicabilité. Si je place une virgule ici après “Transparence”, c’est pour souligner, par cette pause, que l’Explicabilité arrive en second lieu — dans les documents européens, pour l’instant. En effet, alors que dans le Panorama ces deux principes sont associés à égalité, dans les documents européens, la Transparence est une classe en soi, qui inclue explicitement trois propriétés (voir les détails et définitions page 22 du document du Groupe des Experts européens, version française) : la traçabilité, l’explicabilité, la communication (cette propriété étant couverte principalement par les principes “droit à l’information” et “notification” qui seront vus plus loin).

Commençons donc (enfin?) par discuter de cette Transparence.

La Transparence est définie commel’exigence selon laquelle les systèmes d’IA doivent être conçus et mis en œuvre de manière à en permettre leur supervision / leur suivi”, ce qui, pour le Groupe européen d’experts de haut niveau sur l’intelligence artificielle, inclue également les données, le système lui-même et le modèle économique associé. Noter que pour ce groupe d’experts, la Transparence est une exigence et l’Explicabilité un principe : “Cette exigence est étroitement liée au principe de l’explicabilité et comprend la transparence des éléments pertinents d’un système d’IA: les données, le système et les modèles économiques.” (alinéa 75, page 22 du document op. cit). Pour d’autres, la transparence concerne également celle du code source des systèmes d’IA concernés.

La Transparence doit s’effectuer tout au long du cycle de vie des systèmes d’IA : dès leur conception, lors de leur développement, et pendant toute la durée de leur utilisation, ce qui pour ce dernier point découle des capacités d’apprentissage et d’adaptation (et donc de modification) de ces systèmes, et leur capacités d’interaction régulières avec les humains. Pour certains documents, la Transparence peut s’effectuer à des degrés divers : par exemple, tout pourrait ne pas être transparent, si l’on veut respecter les autres principes relevant de la vie privée. De même, la Transparence d’un système pourrait évoluer (être de moins en moins opaque) avec le temps. La Transparence n’est donc pas du tout ou rien, et en cela elle est mesurable, ses différents niveaux d’échelle de mesure pouvant permettre, par exemple, la certification, la labellisation, des systèmes, voire même être une raison (en cas d’absence de transparence) de non déploiement des systèmes d’IA dans des contextes “à haut risque”.

Aparté sur “haut risque”. C’est une notion au cœur du Livre blanc (et donc de la définition à venir du périmètre des IA en Europe) : “Selon la Commission, une application d’IA devrait généralement être considérée comme étant à haut risque en fonction de ce qui est en jeu, en examinant si des risques importants sont associés à la fois au secteur et à l’utilisation envisagée, notamment du point de vue de la protection de la sécurité, des droits des consommateurs et des droits fondamentaux.” Suivent deux critères : “1. l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir ; 2. l’application d’IA dans le secteur en question est, de surcroît, utilisée de façon telle que des risques importants sont susceptibles d’apparaître.” Voir page 20 du Livre blanc pour le texte détaillé.

L’Explicabilité, quant à elle, est définie comme la capacité à traduire les opérations des systèmes d’IA en résultats intelligibles, permettant notamment leur évaluation, et la mise à disposition d’informations sur le lieu, le moment et la manière dont ces systèmes sont utilisés. Elle traduit les mêmes exigences que ce que vous êtes en droit d’attendre d’un être humain prenant des décisions ou agissant à votre encontre, et ce parallèle avec les relations d’humain à humain est central. Preuve en est que les exemples le plus souvent associés à l’Explicabilité ne sont pas de type “recherche d’une preuve au sens mathématique”, ou “les explications rationnelles, c’est la vie” ou “recherche de l’amour de la logique”, mais des situations où les systèmes d’IA sont en mesure d’infliger des dommages aux humains (nombreuses occurrence du terme “harm”), entraînent des conséquences significatives sur les individus, sur leur vie, leur qualité de vie ou leur réputation.

Comme pour la Transparence, le principe d’Explicabilité est fortement lié à celui de responsabilité-accountability, c’est-à-dire ici la capacité à rechercher qui porte la responsabilité d’actions d’IA ayant eu des conséquences sur des individus ou des groupes. Il est également lié au principe (au sous-principe) de droit des humains à pouvoir examiner de près (review) une décision automatique, et au principe de non-discrimination. À cet égard, le besoin d’Explicabilité ne pourra qu’augmenter avec la nécessité de limiter les risques inhérents aux biais (définis comme “inclination au préjugé envers ou contre une personne, un objet ou un point de vue”, page 48 du document des Grands Experts européen déjà cité) et aux erreurs.

Complétant les exigences / principes de Transparence et d’Explicabilité, plusieurs sous-principes, ou principes associés, sont étudiés dans le Panorama. Il s’agit de : l’ouverture des données et des algorithmes, la publicité et le débat lors des marchés publics, le droit à l’information, le principe de notification et la nécessité de compte-rendus réguliers.

Mais avant de voir ces cinq principes supplémentaires, petit aparté sur les racines historiques de deux principaux principes.

Est-ce la pointe d’un iceberg ?

2. Transparence & Explicabilité sont des principes anciens, qui ont donc une histoire à prendre en compte

Aux origines était le besoin d’explicabilité

Il faudrait certainement vérifier dans l’histoire du développement de l’Intelligence Artificielle (et de la cybernétique), et mener une analyse plus sérieuse relevant de l’histoire des sciences et des technologies, mais je pense que le besoin d’Explicabilité est le plus ancien des deux. Il découle pour moi directement du projet de recherche initial d’émulation de l’intelligence (humaine). Ce projet initial recherchait à — ou avait besoin d’ — expliquer l’intelligence humaine pour la reproduire. Mais en est-on seulement capable ? C’est une quête toujours en cours, et il y a du reste de constants aller et retour entre les avancées en apprentissage machine et la recherche en neurosciences pour faire progresser les deux champs d’investigation. L’un donne des idées pour développer ou des outils pour explorer l’autre, continuellement.

Si l’envie profonde d’expliquer la nature et le fonctionnement de l’Intelligence a été la première quête d’explicabilité, le développement des réseaux de neurones artificiels en a fourni la seconde. Leur manière de remplir les objectifs qui leurs sont assignés (reconnaître, détecter, catégoriser un motif dans un signal, que ce soit une image, un comportement sur les réseaux sociaux ou les relations avec sa banque) ne permettent pas toujours une explication satisfaisante, exprimée en langage clair et intelligible, et il arrive plus souvent qu’à son tour que leurs décisions soient surprenantes et demandent un certain temps pour pouvoir être comprises. Quand on veut faire allusion à la soupe de paramètres des nombreuses couches de neurones artificiels qui foisonnent dans les algorithmes de Deep Learning, on parle ainsi souvent de blackbox ; mais ce terme existait déjà il y a 30 ans et plus, pour décrire des réseaux de neurones artificiels de moindre taille, mais pas moins mystérieux.

Une des méthodes pour obtenir un peu plus d’appétence à l’explicabilité de la part de ces réseaux de neurones artificiels est d’obtenir de leur part l’émergence de “symboles”. Ces symboles (dits formels) sont des éléments “de plus haut niveau”, qu’on peut plus facilement manipuler et appréhender. Cela peut être par exemple des règles de logique qui, d’une manière ou d’une autre, “flotteraient” au sein de ces réseaux et seraient détectées en tant que telle, et donc susceptibles de manipulations cohérentes : des blackboxes pourraient être extraites de la logique et donc de la compréhension. Une autre manière seraient que ces réseaux de neurones artificiels modernes disposent de capacités de manipulation des mots (des symboles de plus haut niveau encore que les précédents) et donnent ainsi un accès direct à leur fonctionnement interne.

Les systèmes hybrides en sciences cognitives (dont je parle très souvent ; si vous venez ici pour la première fois, explorez mes articles) ont, je pense, justement à nouveau le vent en poupe car de plus en plus de personnes comprennent que c’est par leur intermédiaire que la recherche de l’Explicabilité va avancer drastiquement.

Par exemple, si on entend souvent parler d’apprentissage machine (Machine Learning), le terme de Machine Reasoning fait moins souvent la Une, et c’est regrettable. Lire par exemple “Neural-Symbolic Computing: An Effective Methodology for Principled Integration of Machine Learning and Reasoning” (mai 2019). (Extrait du résumé, pour vous donner envie de lire cet article : “ However, concerns about interpretability and accountability of AI have been raised by influential thinkers. In spite of the recent impact of AI, several works have identified the need for principled knowledge representation and reasoning mechanisms integrated with deep learning-based systems to provide sound and explainable models for such systems. Neural-symbolic computing aims at integrating, as foreseen by Valiant, two most fundamental cognitive abilities: the ability to learn from the environment, and the ability to reason from what has been learned.”).

Pour être tout à fait complet, j’ajouterais bien que l’Explicabilité (et le souhait de recevoir des notifications quand on est sujet à une décision venant d’une machine) est un principe qui est concomitant aux IA beaucoup plus qu’aux algorithmes dits classiques.

La transparence est issue des valeurs de l’open source

Dans le monde du numérique, la valeur Transparence me semble liée à une valeur certes ancienne, mais plus récente que la recherche de l’Explicabilité, qui est celle de l’ouverture des sources des logiciels, puis de l’ouverture des données. Là encore, cela mériterait un travail de recherche épistémologique un peu plus solide, mais je pense que c’est la trajectoire naturelle qu’ont empruntées les recherches en IA. Ce sont ces principes d’ouverture des logiciels et des données qui ont été évoqués par les universitaires spécialistes des IA passés chez des industriels, pour garantir que leur passage n’était pas comme “un passage chez l’ennemi”, et que tout le monde allait continuer à profiter des recherches, qu’elles soient effectuées dans un cadre académique ou dans un cadre industriel.

À noter que l’accès aux sources et aux données doit être complété par un accès aux publications scientifiques ouvert et de grande qualité, tant dans le fond que la forme. Le papier “Growing Neural Cellular Automata” en est une illustration récente particulièrement marquante, qui reboucle avec le projet des Explorable Explanations du designer Bret Victor (2011, déjà ; si vous n’avez jamais vu cette page, vous allez adorer).

Enfin, j’ajouterais ici un autre élément : l’ouverture des sources et l’ouverture des données sont une culture qui a eu un impact sur la transparence de la vie publique, la démocratie numérique et de manière générale ce que l’on regroupe sous le vocable des CivilTech. Je ne le développe pas plus ici, mais je crois qu’il faut tenir compte de tout ce que cet écosystème a produit depuis plusieurs années, et l’impression que cela a fait sur les femmes et hommes politiques… qui aujourd’hui et bientôt vont se pencher sur ces notions de Transparence et d’Explicabilité des IA. Il faudra s’en souvenir et le prendre en compte en les écoutant.

Qu’est-ce qui constitue et consolide la Transparence et l’Explicabilité ?

À ce stade, la vision que je voudrais vous partager des relations que je perçois entre Transparence et Explicabilité est la suivante. La Transparence est une surface, l’Explicabilité est une ligne qui traverse cette surface. De l’autre côté, il y a les algorithmes. Du nôtre, eh bien il y a nous, les humains. Nous souhaitons que l’algorithme soit explicable (c’est la ligne qui nous relie), et nous voulons que son accès ne soit pas rendu opaque (définition de la transparence par son inverse). Cette surface est à double face, car il faut prendre en question les “besoins des deux côtés” : nous qui souhaitons plus de transparence, les concepteurs des algorithmes qui savent que, par exemple, il y a parfois des aspects de vie privée à prendre en compte et que tout ne peut pas être totalement transparent. La ligne véhicule également le fait que tant l’algorithme-qui-doit-s’expliquer et nous-qui-cherchons-à-le-comprendre devons faire un bout du chemin vers l’autre.

3. Transparence & Explicabilité sont des principes reposant sur des mécanismes réels et concrets

Reprenons à présent la lecture du Panorama en nous intéressant aux sous-principes de la classe Transparence et Explicabilité.

Il y a des mécanismes déjà bien établis…

L’ouverture des données et des algorithmes dans le domaine de l’IA est depuis longtemps un point acquis. Cette volonté d’ouverture, à une exception près, est caractéristique des scientifiques et industriels engagés sur les chemins de l’IA. Je la remonte à un appel clair des scientifiques passés de l’Université aux Industriels, scientifiques passant même d’entreprises en entreprises, de pays en pays, pour faire perdurer la coopération scientifique, et également éviter l’apparition de monopoles. Noter que ceci est valable également en Chine (et de manière générale, il est inexact de dire que les réflexions éthique+IA sont inexistantes en Chine), comme le souligne le Panorama :

[…] the Beijing AI Principles note that open source solutions may be useful “to avoid data/platform monopolies, to share the benefits of AI development to the greatest extent, and to promote equal development opportunities for different regions and industries.”

Il s’agit également d’ouvrir de manière pro-active, c’est-à-dire produire collectivement des bases de données ouvertes (avec les investissements que cela représente), par exemple des bases de visages, de postures, de situations routières…

L’ouverture des algorithmes est par ailleurs un préalable au principe de vérifiabilité. Comme certains craignent que ce soit au détriment de leur propriété intellectuelle, des recherches sont conduites sur les méthodes pour vérifier les effets des algorithmes (algorithmic verifiability) sans pour autant accéder au code source des applications les implémentant. Une autre piste serait de confier cette validation, voire cette certification, à des organismes d’audit tiers.

Deuxième principe essentiel consolidant les exigences de Transparence et d’Explicabilité, le droit à l’information— que l’on retrouve sous la forme du “right to explanation” au cœur du RGPD. C’est le droit de savoir quels paramètres, quelle logique, quelles techniques et quelles informations personnelles ont été utilisées lors d’un processus de prise de décision effectué par des IA (ou par des algorithmes en général). Il faut bien noter que ce droit à l’information sera pleinement utile à condition que les informations délivrées lors de son exercice soient intelligibles (c’est-à-dire exprimées en langage courant), et facilement accessibles (pas au bout de 10 pages, en petites lettres, après 45mn d’attente sur un numéro vert, ou en ayant rempli le formulaire Cerfa 41–212-B). Il y a là tout un travail de design d’accès à l’information qui doit être engagé, et l’Europe a sans doute une longueur d’avance si on s’inspire du RGPD.

Ce droit à l’information lui-même inspire un autre sous-principe, celui d’être informé a priori, au moment même où un processus IA est en œuvre, que nous voyons à présent.

…et des mécanismes moins connus

Il s’agit du principe de notification. Quand une IA a été utilisée (c’est la temporalité “a posteriori” relevée actuellement dans les documents éthique+IA qui abordent ce sujet), ou quand elle est actuellement utilisée (c’est une temporalité “a priori” que je pense urgente à ajouter), la personne qui en fait l’objet doit en être informée. Pour la personne concernée, s’ouvre alors la possibilité de refuser le traitement dont elle fait l’objet (opt-out). Et celle de demander à accéder à un être humain, et/ou celle d’obtenir l’assurance qu’un être humain est dans la boucle pour vérifier et éventuellement corriger le processus en cours. (Noter qu’il y aurait beaucoup à dire sur la capacité des êtres humains à avoir le pouvoir d’intervenir : ils ont leur propre culture, leurs biais, leur niveau de disponibilité, ils sont influencés par leur outil numérique etc. Ceci mériterait ample réflexion, et la seule incantation “il y a des humains dans la boucle” me semble assez faible.)

La notification ouvre la possibilité d’apprécier (au sens de mesurer) les avantages de l’intervention IA, et de faire littéralement l’expérience de cette intervention. Ce principe fournit donc également une forme d’éducation (de pédagogie ?), et la possibilité donnée aux personnes de tirer leurs propres conclusions des avantages ou non des systèmes d’IA, selon les domaines d’usage. Ce sous-principe s’approche ainsi des catégories principielles générales Contrôle humain des technologies et Responsabilité (au sens de Accoutability), et à certains égards en est même un prérequis.

Ce principe de notification mérite qu’on s’y arrête un peu plus. Il signifie également que l’on doit être prévenu quand on interagit avec une IA et non pas un humain (et j’ajouterais, quand une IA est dans la boucle, même si on interagit avec un humain). En effet, de plus en plus de systèmes d’IA ont la capacité de se comporter de telle manière qu’il est difficile (ou non-immédiat) pour un être humain de les détecter en tant que telles, en particulier parce que cela demande une certaine expérience. (Là encore, il y aurait matière à développer, à base de tests de Turing et lieux pour se confronter aux IA et apprendre à les connaître.)

Les auteur·es du Panorama développent longuement ce principe, reflétant également l’état des documents consultés lors de cette étude. Ainsi, dans le contexte de la reconnaissance faciale, sont distinguées les notifications de décision — quand il s’agit d’annoncer qu’un tel outil a été utilisé afin de, par exemple, permettre une arrestation — et les notifications d’interaction — quand il s’agit de signaler qu’une zone donnée est sous vidéo-protection (ou vidéo-surveillance) avec mise en œuvre de techniques de reconnaissance faciale (ou de reconnaissance des émotions, de la démarche, et autres dispositifs prétendant interpréter des données biométriques). Comme pour le design d’accès à l’information relevé plus haut, il y a ici matière à développer un design de la vigilance, ensemble de moyens pour informer les personnes qu’elles se dirigent vers des lieux “sous surveillance IA”.

Transparence et explicabilité sont des propriétés que l’on recherche également en dehors des algorithmes eux-même

Les considérations que l’on vient d’évoquer rappellent à quel point les systèmes d’IA deviennent des objets socio-techniques majeurs. Par conséquent, ce n’est pas la seule transparence et l’explicabilité à l’échelle des algorithmes qui est désirable, mais bien plus largement celle déployée par les plateformes de services qui font appel aux système d’IA. C’est ce que les auteur·es du Panorama soulignent page 45 dans la section “Notification” par ces mots : “informed on how to reach a human and how to ensure that a system’s decisions can be checked or corrected”.

La Transparence est également attendue de la part des organismes publics susceptibles d’utiliser les systèmes d’IA pour mener à bien leurs activités (open government procurement / ouverture des marchés publics). Les auteur·es relèvent cependant qu’un seul document aborde pour l’instant ce sujet (rappel : l’étude à l’origine du Panorama s’étend jusqu’en octobre 2019, cela va sans doute évoluer). Il s’agit cependant d’un rapport majeur d’une organisation non-gouvernementale (AccessNow) qui exerce une influence non négligeable sur la réflexion des autres collectifs réfléchissant aux conséquences des IA.

“When a government body seeks to acquire an AI system or components thereof, procurement should be done openly and transparently according to open procurement standards. This includes publication of the purpose of the system, goals, parameters, and other information to facilitate public understanding. Procurement should include a period for public comment, and states should reach out to potentially affected groups where relevant to ensure an opportunity to input.” (Human Rights in the Age of Artificial Intelligence, page 32, Access Now, novembre 2018)

Cette recommandation / obligation aurait un avantage certain, celui de fournir une période de temps pendant laquelle le public pourrait commenter l’éventuel déploiement d’un dispositif à base d’IA(et s’instruire). Cette “encapacité” fournie au public devrait, à mon avis, être élevée à un statut supérieur et devenir un Principe en soi.

Ce principe sur la publicité des marchés publics est d’ailleurs lié au sous-principe du Droit à l’Information, vu plus haut. Car c’est un principe, en rappelle les auteur·es qui est lié au principe 5 (sur 32) des United Nations Guiding Principles on Business and Human Rights ( Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains) qui visent à apporter des protections contre les abus sur les droits humains lors de la passation de contrats privés par une puissance publique.

Reste un principe relevant de Transaprence & Explicabilité qui ne se situe pas à l’échelon des individus. Le principe de “Regular Reporting” (que je traduirais par “Compte-rendu continu”) invite les organisations utilisant des systèmes d’IA à informer régulièrement le public sur ces utilisations : comment les objectifs souhaités ont été atteints, comment ont été minimisés les risques, quelles erreurs / brèches / fuites / effets indésirables ont été découvertes et comment ont-elles été traitées, etc. Ce principe opère à la fois comme un mécanisme de mise en œuvre de la Transparence et de l’Explicabilité, et comme une preuve de l’effectivité de ces exigences. Plusieurs recommandent que cela devienne une norme internationale, et on devrait en observer les effets dans les discours à venir sur la gouvernance des IA.

On approche du bas de l’article, rassurez-vous. À ce stade, toute la section Transparence et Explicabilité du Panorama a été explorée.

4. L’explicabilité est un champ de recherche en cours

L’Explicabilité des systèmes d’IA, et donc la Transparence, est un champ de recherche pris au sérieux par la communauté scientifique. Il a un nom, tout simple : X-AI, Explainable AI. Partnership on AI est un bon point d’entrée actuellement :

Voir également, pour un colloque scientifique récent (New York, 7–8 février 2020), la session 3 (Explanation) de AAAI/ACM Artificial Intelligence, Ethics and Society, et notamment les deux articles “Good Explanation for Algorithmic Transparency” et “ ‘How do I fool you?’: Manipulating User Trust via Misleading Black Box Explanations”.

Pour une entrée plus ancienne, qui est une des sources pour ce champ de recherche, chercher “David Gunning”, responsable des programmes à la Darpa. Par exemple : “Inside DARPA’s effort to create explainable artificial intelligence”, janvier 2019.

Pour une bonne introduction de ces concepts, voir également : Došilović, F.K., Brčić, M., Hlupić, N.: Explainable artificial intelligence: a survey. In: Proceedings of the 41st International Convention on Information and Communication Technology, Electronics and Microelectronics MIPRO, pp. 210–215. IEEE Xplore (2018) (PDF, 6 pages)

Transparence et Explicabilité ne sont pas simples à atteindre, pour de multiples raisons

Un schéma qui date de 2016, montrant qu’il n’est pas évident d’obtenir à la fois des modèles prédictifs précis & explicables.

La transparence n’est pas toujours la meilleure des idées. Dans le cadre de recherches visant à étudier une approche dite “glassbox” (à l’opposé des systèmes vus comme des blackboxes), différentes études ont été menées auprès de professionnels (puis auprès de spécialistes des IA) à qui des modèles complexes étaient présentés, associés à des outils de visualisation qui en facilitaient a priori la compréhension. Las, il s’est avéré que de nombreux biais, et notamment une trop grande confiance dans les résultats présentés par les machines, restaient à l’œuvre parmi les humains. Il semblait que plus ceux-ci étaient aidés par des outils apportant de la compréhension, et plus ils étaient enclins à faire des erreurs, comme si leur jugement se démobilisait.

La faute pourrait en incomber au fait que celles et ceux qui mènent des recherches sur les X-AI aujourd’hui sont issus du monde des IA, et ne peuvent pas s’extraire de leur vision antérieure. La formule est terrible : “The inmates are running the asylum.” Une piste (évoquée plus haut) consiste à apprendre aux systèmes d’IA à associer chacune de leurs décisions à une expression en langage naturel, à partir de corpus de situations où des personnes expliquent ce qu’elles sont en train de faire. Une voiture autonome pourrait alors dire “je freine, parce que je vois un piéton qui semble vouloir s’engager sur la route”. Mais dans les cas, souhaités, où les IA “imaginent” (pardon pour le raccourci) une solution vraiment nouvelle (le cas du coup gagnant dans la partie contre Lee Sedol au Go est cité), saurions-nous seulement comprendre l’explication proposée ?

C’est sans doute là la clé : l’objectif d’un programme de recherche sur les IA explicables n’est peut-être pas tant de les rendre parfaitement explicites, mais de conserver et améliorer chez les humains la capacité à réfléchir. Un deuxième objectif est d’obtenir des systèmes d’IA qui soient capables de produire des explications de niveau différent (profondeur d’explication, vocabulaire utilisé, outils de visualisation annexes utilisés…) selon les personnes à qui elles sont adressées. Combinés, ces deux principes éviteraient que l’on reste dans cette bulle de confort d’une trop grande confiance accordée à nos artefacts cognitifs.

À lire dans “Why asking an AI to explain itself can make things worse”, (29 janvier 2020).

Saurions-nous seulement comprendre ce que les IA découvrent de nous ? C’est ce que j’incluais en 2018 dans une conférence sur la coopération des intelligences (plutôt que la guerre des intelligences). En écrivant dans un quotidien bercé d’IA, les humains doivent impérieusement apprendre à mieux se connaître, je racontais que des systèmes d’IA avaient pu catégoriser un bien plus grand nombre de formes d’expressions du visage que nous-même étions capable de nommer sur le visage des autres. Ainsi, il était probable que ces IA aient une représentation de nos expressions faciales beaucoup plus nuancée que nous et, comme nous ne savions pas ni repérer ni nommer ces nuances, que ces IA aient une représentation hors de portée de notre compréhension actuelle.

Dans When Transparent does not Mean Explainable (PDF, 3 pages), Kerstin Fischer (University of Southern Denmark) explique parfaitement pourquoi dans certains cas la Transparence n’est pas la meilleure manière d’assurer l’intelligibilité entre acteurs (humains et robots, en l’occurrence) interagissant. Il rappelle que les interactions reposent toujours sur une forme d’illusion, qui risque d’être détruite si les gens comprennent mieux les réelles compétences du robot en face d’eux ; que les humains ont l’habitude de parsemer le début de leurs conversations d’indices ou de questions pour jauger le niveau de compréhensibilité de leur interlocuteur, de telles informations ou partage d’informations n’ayant en revanche pas été implantés dans les robots ; et que lors de leurs interactions, les humains n’affichent des informations que sur leurs capacités les plus élevées, de sorte que si les robots agissaient de même, aujourd’hui ils seraient perçus comme très élémentaires ! L’auteur suggère donc de ne pas viser directement la Transparence ou l’Explicabilité, et par exemple de mieux designer les moyens (forme, gestes, parole…) dont dispose le robot pour faire appréhender, de manière sous-consciente / en sous-texte, je dirais, ses capacités.

So how can robots be made explainable if transparency is not always the best strategy? I would like to make the following five recommendations:
• design the robot with explainability in mind
• exploit ambiguities in pragmatic function
• use downwards evidence wherever possible
• employ inference-rich categories
• make the robot’s affordances visible

Dans “ Unexplainability and Incomprehensibility of AI” (février 2020), Roman Yampolskiy rappelle que dans le contexte d’une IA sûre (Safety & Security), plus l’explication est précise, moins elle est compréhensible. Comportant de nombreuses références et cas d’école, ce papier plutôt destiné aux chercheuses et chercheurs aborde le problème d’une manière intéressante : étudier l’inexplicabilité plutôt que l’explicabilité, l’incompréhension plutôt que la compréhension, etc., l’unsurveyability, l’unverifiability

Dans “‘The Human Body is a Black Box’: Supporting Clinical Decision-Making with Deep Learning”, papier présenté dans la session 2 (Explainability 1) de l’ACM Conference on Fairness, Accountability, and Transparency (retenez : ACM FAccT) le 28 janvier 2020, les auteur·es alertent sur le peu de travaux de recherche actuels sur “fairness, transparency, & accountability” dans le domaine Santé+IA. Ce papier qui mérite la lecture décrit une solution IA de type objet socio-technique, impliquant toutes les parties prenantes concernées par une maladie précise. Extrait du résumé (FATML := Fairness, Transparency, Accountability in Machine Learning) :

Our work has significant implications for future research regarding mechanisms of institutional accountability and considerations for responsibly designing machine learning systems. Our work underscores the limits of model interpretability as a solution to ensure transparency, accuracy, and accountability in practice. Instead, our work demonstrates other means and goals to achieve FATML values in design and in practice.

Pour continuer avec les tweets (de personnes à suivre) qui sont d’excellents points d’entrée sur le sujet de ce présent article, je recommande le suivant, qui rappelle à nouveau que nos systèmes d’IA en cours d’invention sont des objets socio-techniques et doivent être abordés en tant que tels, par des équipes multi-disciplinaires. Virginia Dignum s’appuie sur un fil de Yann LeCun qui reprenait lui-même une ancienne et récurrente discussion dans le monde des ingénieur·es, celle du modèle utilisé pour obtenir des objets volants, et du fait que l’on ne sait pas expliquer, même encore aujourd’hui, avec précision, pour quelle(s) raison(s) les avions volent. Un article de Scientific American, très documenté, était sorti début février (“No One Can Explain Why Planes Stay in the Air”) et avait suscité d’intéressantes discussions en ligne également. Bref, vous avez de quoi lire.

Et je ne résiste pas à ajouter ici, pour mémoire, deux tweets qui reflètent bien les liens entre les grands thèmes de discussion “Qu’est-ce que le projet DeepLearning ?” × “Explicabilité des systèmes d’IA et confiance dans les IA” × “Approches hybrides en sciences cognitives”.

et, celui-ci, cas d’école dans le domaine Santé+IA:

One last word

&. Quelques mots de plus sur la vision européenne

La publication du Livre blanc européen sur les Intelligences Artificielles du 19 février 2020 a suscité rapidement plusieurs réactions. Certains commentateurs l’ont trouvé décevant, estimant qu’il ne répétait que des choses déjà connues, et s’engageait peu. D’autres lui ont trouvé de nombreuses vertus et qualités, ce qui, je dois dire après plusieurs lectures, est également mon état d’esprit.

Virginia Dignum (quel nom prédestiné !), professeure d’informatique à l’Université d’Umeå et professeure associée à l’Université de technologie de Delft, qui dirige un groupe de recherche sur l’intelligence artificielle sociale et éthique, fait partie des expert européens de haut-niveau ayant publié le document de début 2019. Avec plusieurs de ses collègues, elle a publié une première analyse du Livre blanc, dont je recommande la lecture.

Cette première analyse souligne un point très intéressant, à mon avis : il faut cesser de parler de “Race to AI”, et tout l’imaginaire associé, et au contraire adopter la notion de “Exploration to AI”. Je souscris totalement à leur vision :

“AI Race vs AI exploration — We have said it before, the metaphor of AI as a race, promoted throughout the Whitepaper, is not only wrong but potentially even dangerous. A race implies a finish line and an explicit direction to follow. The idea of an “ultimate algorithm or an ultimate AI-ruler” simply feeds into the unscientific narrative of ‘super-intelligence’, damaging public trust in the technology and distracting from real-world governance problems. The field of AI is vast and its full potential is far from being fully explored.”

Voir également le fil très riche de Jan J. Zygmuntowski à partir du tweet suivant :

À propos de “Race to AI”, ne pas manquer cet article de 27 pages de Nathalie A. Smuha : “From a ‘Race to AI’ to a ‘Race to AI Regulation’ — Regulatory Competition for Artificial Intelligence”. On voit comment un des aspects à suivre de près sera la définition de ce qu’est une IA régulable, à comparer avec les “dumb IA”, IA trop limitées pour causer du “haut risque”. Où se situera le curseur, et sera-t-il mobile dans le temps ?

C’est aussi le moment de lire la conclusion de “Thinking About ‘Ethics’ in the Ethics of AI”, (Pak-Hang Wong, Judith Simon, 20 février 2020), où les auteur·es souligent la nécessité d’une approche système et holistique, relevée dans le rapport des Grands experts européens de début 2019 (c’est moi qui souligne) :

Trustworthy AI hence concerns not only the trustworthiness of the AI system itself, but requires a holistic and systemic approach, encompassing the trustworthiness of all actors and processes that are part of the system’s socio-technical context throughout its entire life cycle.

Enfin, si vous n’avez pas assez lu de documents supplémentaires, il reste cet entretien avec Jessica Fjeld, la première auteure du Panorama qui nous a occupé tout cet article : “Can AI be virtuous? — A conversation with Harvard ethicist Jessica Fjeld” (12 février 2020).

Bonus track

Cet article a été rédigé dans le cadre de la préparation d’une conférence intitulée “L’éthique de l’IA” (argh! justement le titre que je ne souhaiterais pas ;) ) et qui sera faite / aura été faite le jeudi 5 mars 2020 à Brest, dans le cadre de Brest is AI (accès gratuit, inscription demandée). Alors que je réunissais tous les matériaux nécessaires pour ce que j’avais envie de raconter, je me rappelais divers papiers expliquant que le fait d’écrire est la meilleure manière d’organiser durablement sa pensée (un principe au cœur de mon activité). Je m’en rappelais alors que je n’étais pas connecté (et même, pour tout dire, hors connexion). Puis, revenant sous les bonnes ondes du wi-fi, je vis passer la publication suivante : “Explanation Effect: Why You Should Always Teach What You Learn”.

Comment une pensée hors-connexion a-t-elle pu influencer sur une attention numérique ? Je ne me l’explique pas ;) .

Rappel des trois grands documents à consulter :

Et si vous voulez approfondir ce sujet de l’Explicabilité, je recommande, de l’excellent Hubert Guillaud :

That’s all, Folks.

Pour l’instant.

--

--

Ay. Poulain Maubant

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV