Les prochains paradigmes d’exploration scientifique seront peuplés d’Intelligences Artificielles

D’abord assistantes, elles deviendront collaboratrices, puis chercheuses

Ay. Poulain Maubant
8 min readOct 14, 2016
Collection d’instruments scientifiques à Harvard, CC by SA 3.0

Dans un précédent papier d’avril 2014, j’expliquais que le 4e paradigme d’exploration scientifique était construit sur l’exploration de données, en particulier des masses de données collectées et pas encore exploitées, et non plus sur l’observation directe ou théorique des phénomènes étudiés. Je rappelais que les précédents paradigmes étaient, dans l’ordre historique d’apparition : (1) la méthodologie empirique fondée sur l’observation et l’étude des phénomènes… observables (2) la construction de théories, utilisant des modèles et faisant appel aux abstractions et à la généralisation ; (3) la programmation comme outil de travail et d’expression des chercheurs, qui utilisent les machines pour modéliser les phénomènes complexes.

Bien sûr, les paradigmes les plus récents n’ont pas remplacé les anciens, ils les complètent. Aujourd’hui la Science a à nouveau changé. Les scientifiques ne regardent presque plus directement dans leurs instruments (télescopes, microscopes…). Ils examinent les données capturées par ces instruments, et celles créées par les simulations. Et ces données sont de plus en plus massives. On parle alors d’exploration de données, le quatrième paradigme scientifique.

Cette exploration des données, massives, complexes, se fait de plus en plus avec l’appui d’intelligences artificielles et des techniques les plus récentes de machine learning. Tant que ces IA aident les scientifiques à naviguer dans ces données, à les nettoyer, à les classer, à leur présenter les aspects intéressants à creuser (je reste volontairement vague sur le type de données et les secteurs concernés), à mieux les visualiser, je pense qu’on reste dans ce quatrième paradigme où la place du scientifique reste primordiale.

Si les IA commencent à “découvrir des choses”, on change de paradigme

Il en va tout autrement dès qu’on demande aux IA de tester des hypothèses, notamment pour conduire des expériences scientifiques, et notamment pour trouver des réglages, des protocoles, auxquels les humains n’ont pas pensé. Il y a là un saut cognitif (c’est le cas de le dire) qui me semble dessiner ce que pourrait être le 5e paradigme d’exploration scientifique, dans lequel des équipes (j’emploie à dessein ce mot) mixtes d’IA et d’humains font avancer la science.

On pourrait nommer ce 5e paradigme celui de l’exploration scientifique hybride. (Edit : faisant appel au machine learning & au machine reasoning. Voir From Machine Learning to Machine Reasoning, Léon Bottou, 2/8/2011, PDF 15 pages)

Extrait de ma présentation “vivre avec les IA”

Parmi les exemples récents d’une telle co-conception humains/IA, je cite souvent l’expérience du condensat de Bose-Einstein qui a été reproduite l’année dernière par une IA. Un condensat de Bose-Einstein est un état particulier de la matière qui a été prédit en 1925 par Albert Einstein (paradigme 2). Le premier condensat gazeux a été produit en 1995 par Eric Cornell et Carl Wieman, ouvrant la voie à l’étude des gaz atomiques dilués ultrafroids dans le régime quantique et leur offrant le prix Nobel de physique en 2001”, nous rappelle Wikipedia. En 2015, une équipe australienne s’est adjoint les services d’une IA pour refaire cette expérience, et s’occuper notamment du paramétrage des lasers impliqués. Moins d’une heure a été nécessaire pour refaire l’expérience à partir des conditions de départ, au grand étonnement de l’équipe scientifique. D’autant plus surprise que l’IA a fait des choix techniques auxquels aucun humain n’avait pensé avant, et qui pourraient ouvrir de nouvelles pistes d’investigation.

Référence : Wigley, P. B. et al. Fast machine-learning online optimization of ultra-cold-atom experiments. Sci. Rep. 6, 25890; doi: 10.1038/srep25890 (2016). (article en libre accès) (voir aussi cet article chez Forbes)

On retrouve là le même degré d’étonnement que pour le 37e coup de la deuxième partie AlphaGo / Lee Sedol, un coup a priori étrange qu’aucun humain n’aurait jamais joué, mais qui s’est avéré gagnant. Un coup qui, par sa beauté -ce sont les joueurs qui le disent- a ouvert un nouveau champ de tactiques possibles et a donné des envies d’exploration de ce champ aux joueurs. Il faut d’ailleurs noter que le coup n’était pas seulement beau, mais l’enchaînement algorithmique l’ayant provoqué était lui-même très instructif, ce que les concepteurs d’AlphaGo ont découvert quand ils ont cherché à comprendre comment leur champion en était arrivé à proposer un tel coup.

Les IA utilisées dans ce 5e paradigme peuvent donc faire progresser la science d’au moins trois manières :

  • en accélérant la recherche de conditions expérimentales et de protocoles scientifiques optimaux
  • en proposant des méthodes auxquelles les humains ne pensent pas
  • en lançant les humains sur de nouvelles pistes d’exploration, grâce à ces nouvelles méthodes et aux idées trouvées en cherchant à les comprendre

D’autres domaines de recherche s’adjoignent le concours d’IA pour explorer leur champ. L’analyse d’images médicales a ainsi depuis longtemps été facilitée par des algorithmes de traitement du signal, relayés par des algorithmes de classification pour effectuer des diagnostics. Aujourd’hui certains pensent que les IA , libérées sur la masse des données médicales accumulées, vont permettre ces avancées soudaines dans la recherche de traitement ou de prévention des maladies. Google DeepMind est ainsi engagé dans un partenariat avec le National Health Service britannique pour appliquer des techniques d’apprentissage machine en vue d’accélérer le temps nécessaire à planifier le traitement précis de certaines formes de cancer. Ce sont pour l’instant de petits pas, mais ils méritent d’être observés de près.

Préparer les scientifiques à l’utilisation des IA

Ceci appelle une première remarque : les scientifiques actuels et celles et ceux de demain sont-ils/elles capable de maîtriser les outils et techniques de l’IA ? Mon intuition est qu’on en est loin, mais que la partie n’est pas perdue car l’esprit open source règne sur ce milieu. Il n’y a qu’à voir les MOOC qui fleurissent, les codes qui sont partagés pour reproduire les expériences, les articles scientifiques majeurs (académiques ou privés) qui sont publiés sous licence ouverte. Le parcours d’Andrew Ng, cofondateur de Coursera, auteur d’un MOOC célèbre et historique sur le machine learning, fondateur du Google Brain project, aujourd’hui directeur scientifique chez Baidu, est à ce propos remarquable (side note : sa fiche wikipedia française est particulièrement pauvre). Tout est disponible pour former en masse une génération nouvelle de scientifiques capables de travailler avec des IA, en en comprenant à la fois leur immense potentiel et leurs limites actuelles.

L’explicabilité, condition sine qua non de ce 5e paradigme

Il faut également prendre en compte, et c’est une deuxième remarque, la méfiance des scientifiques envers ces techniques (de même que pour le 4e paradigme, il faut prendre en compte les réticences de certains à travailler en mode open data, de prendre en compte des données acquises par la science participative, ou bien de libérer leurs données et algorithmes pour permettre la reproduction de leurs expériences).

L’Intelligence Artificielle souffre -et a déjà souffert dans le passé- de son manque d’explicabilité. Des scientifiques regrettent qu’il ne soit pas toujours possible de réduire ses processus à un certain nombre d’équations mathématiques, permettant d’expliquer comment ça fonctionne. Et c’est d’autant plus difficile actuellement avec les millions de paramètres en jeu dans les techniques d’apprentissage profond. Il y a d’ailleurs tout un champ de recherche au sein même des sciences cognitives pour comprendre ce qui se passe au sein de cette boîte noire de l’IA, avec des approches originales puisque certains pensent à appliquer des techniques d’études de nos artefacts calquées sur la relation des psychologues et psychiatres avec leurs clients… Et ceci n’est pas nouveau. J’ai eu l’occasion de travailler sur ce sujet durant ma thèse sur l’hybridation des courants cognitivistes et connexionnistes. Une des questions posées (et en parie résolue…) était de trouver des moyens d’extraire d’un réseau de neurones artificielles “ayant appris des choses”, des règles manipulables par des systèmes experts, comme lorsqu’on cherche à extraire du cerveau d’un expert les règles qu’il applique (et qu’il n’est pas capable d’expliciter).

Plusieurs papiers récents sur (les enjeux de) l’explicabilité des IA méritent d’être versés au débat. Cet excellent papier de Nature, par exemple, Can we open the black box of AI?, montre le dilemme auquel pourrait faire face une patiente devant une IA lui diagnostiquant un risque de cancer mais incapable d’expliquer comment elle en arrive à ce résultat. C’est tout simplement la question de confiance qui se pose, de manière encore plus aiguë que vis-à-vis d’un médecin, dont on accepte l’expertise plus facilement parce qu’il/elle est humain, comme nous. Pourtant, les humains comme les IA peuvent se tromper. Mais pour ces dernières, les questions de responsabilité et de confiance sont trop importantes pour les laisser aujourd’hui autonomes et ne pas garder d’humain dans la boucle. D’autant plus qu’il a été montré qu’il est possible de tromper délibérément un réseau de neurones artificiels en lui présentant des entrées qu’il interprétera incorrectement (l’article de Nature ci-dessus en donne des exemples). Tant que ces questions d’explicabilité et d’interprétabilité n’auront pas été résolues, il sera impossible de laisser une IA prendre elle-même des décisions (sans contrôle humain) sur la conduite d’expériences scientifiques en environnement réel : soit directement dans le réel, soit dans une simulation qui pousserait les scientifiques à tenter le réel sans précaution.

Le 5e paradigme d’exploration scientifique hybride, humains/IA, a donc encore un peu de temps pour se généraliser. Mais on en voit clairement les prémices.

Lire aussi (par Hubert Guillaud, InternetActu, septembre et octobre 2016) :

Le 6e paradigme : des IA menant leurs propres recherches ?

Partant des cinq premiers paradigmes scientifiques, quel pourrait être la rupture suivante créant un futur paradigme ? Probablement celle des IA complètement autonomes.

Dans le 5e paradigme, les IA restent des assistantes des humains, et des collaboratrices, même si leur partenariat est d’une nature supérieure à ce qu’apporte l’informatique pour les paradigmes 3 et 4. Elles sont développées pour explorer un problème scientifique particulier, et bien que leurs constructions sous-jacentes puissent servir d’inspiration pour d’autres IA sur d’autres problèmes, elles ne sont pas capables de s’attaquer à tous les problèmes scientifiques actuels et à venir.

Il en sera tout autrement -et nous en sommes encore très loin- quand des IA générales -qui n’existent pas encore- auront acquis la capacité de choisir elles-même les domaines auxquels elles s’intéressent. Les recherches actuelles en IA sur le meta-apprentisssage, c’est-à-dire la capacité d’un artefact à choisir quelle forme d’apprentissage utiliser pour s’attaquer à un problème, sont un premier pas dans cette direction (pour une différence -essentielle- entre formes d’apprentissages et types d’apprentissages, voir le cahier de veille 2016 Intelligences Artificielles pp10–12 de la Fondation Télécom). Il y en a certainement d’autres à identifier sur ce chemin, mais nul doute qu’à terme les IA générales comporteront dans leurs rangs des IA chercheuses, si ce n’est pas d’ailleurs l’essentiel de leur raison d’être.

--

--

Ay. Poulain Maubant

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV