Pour une intelligence artificielle éclairée par le design

Benoit Vidal
Dataveyes Stories (VF)
11 min readFeb 17, 2020
Cette couverture représente les termes les plus fréquemment utilisés dans cet article, leurs relations et leur musicalité.

(An english version of this article is available here)

(initialement publié sur LinkedIn le 3 octobre 2017)

Depuis la révolution industrielle, nous cherchons sans cesse à optimiser notre façon de travailler. Des premières organisations scientifiques de la production, comme le Taylorisme et le Fordisme, jusqu’aux méthodes agiles en vogue, nous cherchons comment découper les tâches et allouer les ressources pour progresser vers plus d’efficacité. Aujourd’hui, de nouvelles techniques de traitement des données, rangées sous le terme “intelligence artificielle”, questionnent notre rapport au travail. À tel point que certains sonnent l’avènement d’une 4ème révolution industrielle.

Sans aller jusque-là, les avancées significatives de l’AI (artificial intelligence en anglais) interpellent. Car si l’AI date des années 50, les nouvelles techniques qui en dérivent, comme l’apprentissage automatique (machine learning en anglais), changent profondément la façon de penser un système informatique.

AI is the new black (box)

Habituellement, un logiciel est programmé de façon explicite pour suivre des procédures élaborées par un ingénieur. Avec le machine learning, le système apprend par lui-même. L’ingénieur spécifie directement l’objectif à atteindre, charge au système d’apprendre comment atteindre cet objectif à partir d’un jeu de données d’apprentissage. Il y parvient en effectuant des opérations enchevêtrées sur de très grands volumes de données. Nous avons du mal à nous représenter comment un tel système chemine vers une prise de décision.

Le fonctionnement des algorithmes de machine learning est bien moins explicite que celui des algorithmes procéduraux classiques. Les algorithmes d’apprentissage profond en particulier (deep learning en anglais) nous apparaissent comme des boîtes noires. Ces algorithmes ont pour support des réseaux de neurones profondément interconnectés et comptant jusqu’à plusieurs centaines de millions de liaisons. Chacune d’entre elle est apprenante, et apporte sa petite pierre à l’édifice en se spécialisant sur une partie du problème. C’est pourquoi il nous est si difficile de comprendre et de nous représenter ces modèles complexes. J’ai souvent entendu : “Nous pouvons construire ces modèles, mais nous ne savons pas comment ils fonctionnent”.

Schéma d’un système IA “classique”

Nous ne pouvons pas vivre avec des systèmes impénétrables

Les algorithmes dont il est ici question ne sont pas réservés à quelques métiers riches en données ou à la recherche mathématique. Deux exemples récents nous prouvent qu’ils entrent en relation avec ce qui fait notre société et notre identité :

Ce logiciel utilisé par la police américaine pour prédire les futurs criminels accusant inconsidérément les noirs, et beaucoup moins les blancs.

— Plus récemment, cet algorithme pouvant “détecter” l’orientation sexuelle d’une personne à partir d’une simple photo de son visage.

Bien sûr les spécifications techniques et le code source apportent parfois assez d’information aux initiés pour leur permettre de travailler avec un modèle de machine learning. Mais cela ne suffit pas à la grande majorité d’entre nous, spécialistes ou non des données, pour comprendre ces modèles, et donc se fier à leurs résultats. Même les data scientists ne peuvent pas prétendre lire ces algorithmes comme un livre ouvert.

Pourtant, nous avons d’autant plus besoin de voir clair en ces algorithmes qu’ils ne sont pas aussi fiables et robustes qu’ils le paraissent.

Le machine learning est apparu comme une promesse de résoudre des problèmes jusque-là insolubles par les hommes. Lorsqu’un très grand nombre de critères entrent dans la détermination d’un phénomène, et qu’ils ne peuvent être évalués qu’à travers des échantillons immenses, les algorithmes de machine learning parviennent à des modélisations utiles, là où les algorithmes classiques touchaient leurs limites. Pour autant, leur modélisation n’est autonome que dans une vision déterministe du monde, c’est-à-dire en supposant que les données analysées décrivent toutes les facettes du problème à résoudre. Mais dans la vraie vie, l’univers n’est pas aussi bien délimité : il est difficile de dessiner clairement tous les contours d’un problème, et il est délicat de répertorier toutes les situations possibles sur lesquelles un algorithme doit être entraîné. Certaines réponses peuvent être encore inconnues, ou délaissées à cause de nos propres biais humains. Les algorithmes de machine learning reproduisent mécaniquement ces biais, et ne peuvent modéliser qu’une partie de la réalité : celle que nous avons été capable de lui exposer. Ils nous donnent l’impression de mieux comprendre le monde, en réalité, ils ne font que reproduire les facettes du monde que nous connaissons déjà. Cela s’appelle le biais de quantification : la croyance inconsciente qui nous pousse à valoriser bien plus ce que nous pouvons mesurer que ce que nous ne pouvons pas. Dans un monde “AI-first”, ce phénomène est exacerbé.

En conséquence, il est difficile, voire impossible, de prouver qu’un modèle de machine learning fonctionnera dans tous les cas pour lesquels il a été conçu, car certaines situations peuvent être mal représentées dans les données d’apprentissage. Malheureusement, il est compliqué de corriger ce qui ne va pas dans ce type de cas : la structure sous-jacente du système étant extrêmement complexe, trouver les sources de biais revient à chercher une aiguille dans une botte de foin. Sans compter la difficulté de constituer un jeu d’entraînement important et sain, représentatif du problème que l’on cherche à résoudre.

Pour ces raisons, nous avons besoin que les systèmes de machine learning soient plus intelligibles pour les data scientists comme pour le grand public. Car un algorithme qui peut être interprété est un algorithme qui peut être amélioré. Nous en sommes encore loin. Or je pense que c’est un point crucial pour l’adoption massive du machine learning. Lorsque nos sociétés prendront conscience que des algorithmes sophistiqués ont envahi la sphère professionnelle et intime, elles risquent de rejeter en masse la présence de ces boîtes noires.

Cela pose deux défis.

D’une part, les spécialistes du machine learning doivent mieux contrôler les algorithmes qu’ils conçoivent, être capables d’expliquer leurs décisions, et de les discuter avec un large public, pour obtenir des modèles plus sûrs et moins discriminatoires.

D’autre part, les autres métiers travaillant avec les data scientists, comme chacun, dans sa vie quotidienne, doivent pouvoir apprécier les effets des modèles algorithmiques, et mieux comprendre ces derniers pour mieux se les approprier.

Pour réussir sur ces deux points, je suis convaincu qu’il faut améliorer la façon dont nous interagissons avec ces systèmes complexes : nous devons créer des interfaces de médiation avec les algorithmes.Les HDI : la science des médiations entre hommes et données

Nous avons pris l’habitude d’utiliser le terme “interactions homme-données” (HDI pour Human Data Interactions) pour désigner ce que nous faisons chez Dataveyes. Les HDI regroupent tous les dispositifs destinés à améliorer la façon dont nous comprenons et utilisons l’information contenue dans les données. Je vous invite à lire notre article sur le sujet, explicitant ce terme et notre approche.

Dans une approche HDI classique, non confrontée au machine learning, les hommes sont au coeur du système et font l’essentiel du travail : ils recueillent de l’information en interagissant avec les données, et s’en servent pour éclairer leurs décisions.

Schéma d’une approche HDI (sans IA)

On peut penser qu’un système AI et une approche HDI ne sont pas compatibles, voire opposés, car dans les systèmes AI les humains semblent disparaître de la chaîne de traitement.

Je pense à l’inverse qu’ils sont parfaitement complémentaires, à condition de redistribuer les rôles. Les hommes et les machines doivent être chacun en charge de répondre à des besoins de natures et de complexités différentes : aux systèmes AI la responsabilité d’apprendre, de calculer, de classer, etc. Et aux humains la responsabilité de comprendre, d’analyser, de ressentir ou encore d’éprouver la réalité. Les deux devraient donc plutôt travailler de pair, en confiance.

Or confiance et compréhension sont liées. La compréhension est un objectif essentiel des interactions hommes-données, car elle rend possible la confiance. Les HDI répondent à cette problématique par le design : le design des interfaces, des interactions, et des flux d’information doit donner aux humains la compréhension nécessaire à exercer leur rôle auprès des systèmes riches en données.

Apprivoiser le machine learning grâce au design

Quelles interfaces peuvent aider des publics très différents — data scientists d’une part, non-spécialistes de l’analyse de données de l’autre — à mieux comprendre les algorithmes ? Des interfaces qui misent sur la visualisation de données et sur l’interactivité.

De telles interfaces ne cherchent pas à nous apprendre à lire les formules mathématiques des algorithmes, mais elles nous montrent comment les algorithmes transforment les données, elles nous aident à appréhender ce que produisent ces algorithmes, à déduire le fonctionnement du système, en nous figurant visuellement les structures, les groupes, les hiérarchies, la distribution, les relations et les corrélations dans un jeu de données.

Souvent ces interfaces possèdent des filtres, des zooms, des curseurs à déplacer, des boutons à actionner, etc. Car un aspect important des interactions hommes-données se situe dans l’interactivité. Lorsqu’une visualisation simule des données qui évoluent au cours du temps, ou bien lorsqu’elle nous permet de faire varier des paramètres, elle nous donne à voir l’influence de variables d’entrée sur des variables de sortie. L’interface nous fait toucher du doigt la sensibilité des données, et nous donne une image mentale de leurs liens de dépendance.

De telles interfaces peuvent rester simples et ludiques, adaptées à la prise en main par le grand public des principaux systèmes algorithmiques qui l’entourent. Elles fournissent aux non experts le niveau d’information nécessaire à une relation de confiance avec les données.

Dans leurs versions les plus avancées, les interfaces de visualisation peuvent aussi aider les data scientists à faire évoluer leurs façons de travailler.

Vers un meilleur contrôle du machine learning par les data scientists

Pour répondre aux défis de l’AI dans nos sociétés, les data scientists doivent pouvoir auditer en profondeur les mécanismes du machine learning et apporter plus de contexte sur les réponses qu’il propose. Pour ce faire, ils doivent étendre leur périmètre d’intervention pour intégrer de bonnes pratiques :

— Bien préparer les données et garantir leur qualité. Dans la plupart des cas, les algorithmes ne sont pas alimentés avec des données brutes, mais avec des données re-traitées de façon à faire ressortir les caractéristiques pertinentes des données (appelés features en anglais) pour le problème à résoudre.

— Auditer le fonctionnement du système en sondant son fonctionnement interne.

— Analyser les résultats en testant leur pertinence.

Avec des outils de visualisation adéquats, les data scientists peuvent voir ce qui arrive aux données lorsqu’ils initient et paramètrent un modèle de machine learning. Des visualisations adaptées favorisent leur compréhension à la fois globale et locale : elles leur montrent, à l’instant t, le jeu de données entier et une vue granulaire sur certaines parties de ce jeu. Ces visualisations permettent aux experts des données de tester plus facilement la stabilité ou les cas spécifiques importants d’un algorithme apprenant, à chaque étape de traitement.

Aujourd’hui, de tels outils de visualisation sont de plus en plus utilisés par les spécialistes pour mener la conception et l’apprentissage des modèles de machine learning. De nombreuses initiatives vont dans cette direction :

— Fast Forward Labs a récemment sorti un dossier de recherche sur la notion d’Interpretability dans les modèles de machine learning.

— Google a partagé en open source certains de ses travaux de visualisation sur le sujet du machine learning, avec Facets et TensorFlow.

Uber construit sa propre plateforme de machine learning-as-a-service avec un fort souci de visualisation.

— La plateforme open source de Deep Learning H2O.ai fait aussi beaucoup d’efforts dans ce sens.

— Enfin Distill.pub veut être une plateforme dédiée à l’explication du machine learning.

Ainsi, une nouvelle approche se dessine, où le système AI est encadré par des data scientists assistés d’interfaces, en amont (input) et en aval (output).

Une meilleure IA assistée par des humains (data scientists)

Le machine learning au service de l’homme pour amplifier nos capacités

Si les algorithmes de machine learning sont meilleurs lorsqu’il sont assistés par les humains, la réciproque est aussi vraie : les hommes peuvent dépasser leurs limites grâce aux systèmes de machine learning.

Le responsable du MIT Media Lab, Joi Ito, a donné une perspective intéressante sur les principes de conception à suivre pour travailler avec l’AI. Selon lui, l’homme devrait se concentrer sur le concept d’extended intelligence plutôt que sur la robotique et l’AI dite “générale”. Car c’est le propre de l’homme d’utiliser la technologie comme une extension de lui-même. Cela fait aussi écho au “bicycle for the mind” de Steve Jobs.

J’irais plus loin en faisant le parallèle avec le concept de géosophie, introduit par le géographe John Kirtland Wright en 1947 dans son essai Terrae Incognitae. Pour lui, la géographie est une science “académique” qui doit être enrichie par ce qu’il nomme la géosophie. La géosophie étend la connaissance des géographes aux conceptions périphériques : celles des agriculteurs, des pêcheurs, des dirigeants d’entreprises, mais aussi des poètes, des romanciers, des peintres, etc. J.K. Wright n’hésite pas à tisser un lien entre l’imaginaire, l’intuition, le savoir et la science. Il prêche ainsi pour une connaissance du territoire la plus large possible.

Cette approche est similaire à celle que nous proposons en parlant d’interactions hommes-données. Les HDI incluent la data science comme la géosophie inclut la géographie ; mais elles vont aussi au delà de la data science, en intégrant le point de vue des utilisateurs finaux : praticiens de tous les métiers au contact des données, mais aussi habitants des smart cities et des maisons connectées, conducteurs des voitures autonomes, usagers des réseaux, citoyens, etc.

Comme la géosophie, les HDI mêlent instinct et savoir. Elles utilisent les modèles de machine learning pour améliorer nos perceptions, et développer nos intuitions. Ce faisant, elles nous permettent d’étendre nos capacités de prise de décision et de création, de résoudre les problèmes plus efficacement, et de comprendre en profondeur le monde dans lequel nous évoluons.

En entreprise, les HDI font le pont entre les spécialistes des données et les experts métier. Elles enrichissent une connaissance commune des données, favorisant une data literacy essentielle pour que chacun améliore son travail. Les organisations qui sauront marier intelligemment design et machine learning acquerront ainsi un avantage certain sur les autres.

Ce n’est donc pas homme vs machine, mais plutôt homme ET machine, essayant d’apprendre l’un de l’autre. Notre futur sera algorithmique, et le design y prendra une place de plus en plus importante. Non seulement car il permet une relation avec le machine learning plus sûre et plus productive, mais avant tout car il permet un travail plus collaboratif.

HDI + IA, un nouveau monde à explorer

Comment le design et l’apprentissage automatique permettront aux médecins, techniciens, agriculteurs, designers, musiciens, etc., de s’améliorer dans leurs métiers ? Chez Dataveyes, nous nous intéressons au spectre complet des interactions entre hommes et données : depuis les pratiques des ingénieurs informatiques à celles des experts de tous les domaines, en passant par les usagers des produits et objets de demain. Nous sommes intimement convaincus de pouvoir ouvrir le champ des possibles en concevant des systèmes AI qui intègrent l’humain en leur centre.

--

--

Benoit Vidal
Dataveyes Stories (VF)

input: reason • output: pleasure | Data Products @VIOOH | Co-founded @dataveyes | Data. Design. Product. In that order.