Deep Learning

Pour situer le terme de Deep Learning, il nous faut tout d’abord situer son histoire. Tout commence avec l’Intelligence artificielle, concept apparu en 1950 dans un article intitulé Computing Machinery and Intelligence de Alan Turing. Il évoque dans cet article la possibilité d’apprendre à ces ordinateurs, qui n’auront peut-être pas d’yeux, ni de jambes. Puis, une conférence est organisée au Darkmouth College, université privée à Hanover, dans le New Hampshire. De fil en aiguille, l’Intelligence artificielle a provoqué une collecte de données planétaires, à la fois médicales, photographiques, voire géographiques. Nous avons remarqué qu’à chaque fois que nous allons sur un site, nous sommes poussés à activer les cookies. Il est même rendu volontairement compliqué et long de les désactiver. Les données sont alors collectées pour la médecine, le traitement d’image, les programmes informatiques et même dans l’agriculture.

Puis l’IA va évoluer : en fonction de la complexité des différents programmes informatiques, différents noms vont lui être associés : nous avons tout d’abord l’IA faible, qui est celle qui va exécuté le même ordre, à répétition : une seule tâche est programmée. Puis nous avons l’IA forte, qui est capable de conscience, et de sensibilité : elle n’existe pas encore. Une intelligence artificielle faible est par exemple l’ordinateur contre lequel on joue aux échecs sur une application. Elle va ensuite évoluer et être capable d’apprentissage.

Mais l’Intelligence artificielle rencontre une grande différence avec le machine learning ou encore le deep learning. Le concept de machine learning, quant à lui, apparaît pour la toute première fois en 1959, lorsqu’a été mise au point une machine pour jouer aux dames, qui s’améliorait à chaque partie. La différence majeure, c’était alors l’exploitation des données : l’ordinateur apprenait de ses adversaires. Toute erreur commise par l’ordinateur ou par son adversaire était alors source de progrès. Il a fini 4e au classement mondial.

Depuis l’article de 20 pages de Turing, un défi a été lancé. Le but ? Pour qu’une machine passe le test de Turing, il faudrait qu’une machine et deux humains soient dans la même pièce, les yeux bandés, qu’ils parlent sans pouvoir se voir, et qu’au moins un des deux humains ne sache pas qui est l’autre humain. Quelques étapes se passent avant dans arriver là, mais lorsqu’apparaît en 1997 le concept de Machine Learning et que Deep Blue, conçu par IBM, bat Garry Kasparov aux échecs, on comprend alors qu’on est sur la bonne voie.

Sans le savoir, nous avons tous participé à la mondialisation de ce concept, en acceptant d’enregistrer nos données : chez Google, par exemple, en identifiant un chat, une voiture, pour prouver que nous étions humains. Nous avons simplement aidé les serveurs à collecter des données pour apprendre aux ordinateurs à reconnaître un chat. Cela, Google peut le faire depuis 2014, depuis qu’ils ont racheté le concept de DeepMind : AlphaGo. Puis, une autre approche entre en scène. Évoqué dans les années 50, il est mis au point : le réseau de neurones artificiels. Le principe est très simple : des couches de neurones sont créées, grâce à une évaluation successive de données qui établissent à chaque fois un certain taux de certitude. A la fin, le réseau sait s’il a eu juste ou non, et apprend de ses erreurs. Au départ, il ne réussit pas beaucoup, mais au fur et à mesure il devient de plus en plus compétent. Un exemple de Deep Learning que l’on utilise quotidiennement est la reconnaissance vocale Google Home par exemple.

En 1986, Rina Dechter écrit Learning while searching in contraint-satisfaction-problems. Yan LeCun, Directeur Général de Facebook, apprend à sa machine à reconnaître les codes postaux écrits à la main. Cela a pris 3 jours d’apprentissage.

Mais en 2009, nous faisons face au Big Bang du Deep Learning : en effet, grâce aux Processeurs GPU, et grâce aux stockages de données qui ont été améliorés (plus rapides, moins chers, et plus puissants), les systèmes deviennent jusqu’à cent fois plus rapides. Ils peuvent désormais conduire,

Identifier une tumeur, jouer à un jeu vidéo, par exemple. Ce qui a provoqué cette révolution technologique, c’est l’informatique. Le danger en revanche, est que la machine remplace l’humain dans son métier, tel que dans la médecine par exemple. Il faut garder à l’esprit que la machine n’est pas là pour remplacer l’être humain, mais bien pour l’aider à faire son travail plus efficacement.

Ensuite, nous allons vers l’étape supérieure, le GANs est créé : le programme est constitué de deux réseaux neuronaux. L’un d’entre eux est générateur, il crée l’image, puis l’envoie au second, le discriminateur, qui crée la « non » image. Cela forme une boucle entre les deux réseaux, pour accélérer le processus de réponse. Par exemple, il existe un programme GANs qui génère des visages qui paraissent réels, mais qui n’existent pas.

De nos jours, beaucoup d’Universités font des recherches sur le Deep Learning aux États- Unis et au Canada : l’université de Toronto, celles de New York, Owford, Standford, mais encore des grosses entreprises telles que Facebook ou Google, Twitter ou encore Microsoft. Nous pouvons en conclure que les Américains comptent énormément miser sur le soft power du deep learning pour continuer à être premiers sur la scène internationale.

Article par Lola Voyer, Louise Nay Le Moigne, Clémence Lafourcade.

--

--