AI Explainability 360

Vincent Perrin
3 min readAug 26, 2019

--

En quelques années, les réseaux de neurones ont pris une part très importante dans l’ensemble des algorithmes de Machine Learning, car il se sont montrés performants et rapides à utiliser. Ceux-ci apprennent tout seul en ingérant des données (plus ou moins) brutes. Par contre, cet apprentissage est très opaque.

Selon Andy Rubin (cofondateur d’Android) :

Une fois que le réseau de neurones a appris à reconnaître quelque chose, un développeur ne peut pas voir comment il a réussi.

C’est comme le cerveau : vous ne pouvez pas couper la tête et regarder comment ça fonctionne.

On parle fréquemment des algorithmes “Boite noire” dans l’Intelligence Artificielle.

L’interprétabilité est un des challenges les plus difficiles du Machine Learning. J’ai commencé à aborder ce thème dans cet article avec l’offre Watson Openscale qui permet via l’exploitation de deux méthodes LIME et IBM CEM (Contrastive Explanation Method) d’apporter un certain niveau de compréhension. Cette offre était également accompagnée d’un toolkit Open-Source AI Fairness 360 autour de la détection et l’atténuation des biais (Fairness). Dans la continuité et pour accompagner sa démarche pour une adoption, IBM a sorti un nouveau toolkit AI Explainability 360 en Open-Source.

L’interprétabilité est intéressante et importante pour différents profils Datascientist, Responsable Métiers, Auditeur… Ces différents profils ont besoin d’explications à des fins différentes et avec des objectifs différents, qui devront être adaptées à leurs besoins. Le RGPD explique aussi l’importance de ce sujet:

AI Explainability 360

Ce toolkit comprend une série d’algorithmes d’interprétabilité reflétant les recherches les plus récentes dans ce domaine, ainsi qu’une interface utilisateur intuitive (http://aix360.mybluemix.net/) permettant de comprendre les modèles d’apprentissage automatique sous différents angles.

L’une des principales contributions de AI Explainability 360 est qu’elle ne repose pas sur une seule forme d’interprétation pour un modèle d’apprentissage automatique. De la même manière que les humains s’appuient sur des explications riches et expressives pour interpréter un résultat spécifique, l’explicabilité des modèles de Machine Learning varie en fonction des demandants et du contexte impliqués.

Il y a plusieurs façons d’expliquer un résultat de Machine Learning:

  • Data vs. Model
  • Directly interpretable vs. Post-hoc explanation
  • Local vs. global
  • Static vs. interactive

Directly interpretable : Les modèles de Machine Learning les plus anciens, tels que les arbres de décision, règles booléennes sont assez simples à comprendre. L’apprentissage supervisé de ces modèles est directement interprétable.

Post-hoc interpretation : Commencez avec un modèle de boîte noire et explorez-le avec un modèle associé pour créer des interprétations. Le modèle de boîte noire continue de fournir la prévision réelle, tandis que l’interprétation améliore les interactions humaines.

Global (model-level) : Montrez l’ensemble du modèle prédictif à l’utilisateur pour l’aider à le comprendre (par exemple, un petit arbre de décision obtenu directement ou postérieurement).

Local (instance-level) : Ne montrez que les explications associées aux prédictions individuelles (c’est-à-dire des caractéristiques de cette personne qui a refusé son prêt).

Static : L’interprétation est simplement présentée à l’utilisateur.

Interactive : L’utilisateur peut interagir avec interprétation.

AI Explainability 360 fournit différentes explications pour différents rôles, tels que des Datascientists ou des Métiers. Voici l’arbre de décision du toolkit:

Vidéo introductive à AI Explainability 360

Vous pouvez commencer à utiliser AI Explainability 360 en incorporant les composants interprétables à l’aide des API incluses dans la boîte à outils. De plus, AI Explainability 360 comprend une série de démonstrations et de tutoriels pour vous aider à démarrer rapidement.

Exemple de tutorial autour de l’acceptation de crédit bancaire via un Notebook Jupyter: https://nbviewer.jupyter.org/github/IBM/AIX360/blob/master/examples/tutorials/HELOC.ipynb

Si vous souhaitez aller plus loin sur ce sujet, je vous recommande cet ebook Interpretable Machine Learning.

--

--