L’ingénierie neuromorphique pour les nuls

Des microprocesseurs “configurés” comme des cerveaux contrairement aux microprocesseurs traditionnels pourraient bientôt rendre les ordinateurs beaucoup plus astucieux sur ce qui se passe autour d’eux.

Les ordinateurs actuels utilisent globalement l’architecture dite de von Neumann, qui transfère des données entre un processeur central et des puces de mémoire dans des séquences linéaires de calculs. Cette méthode est idéale pour calculer des nombres et exécuter des programmes précisément écrits, mais pas pour le traitement d’images ou de sons et pour donner un sens à tout cela. En 2012, lorsque Google a mis au point un logiciel d’intelligence artificielle qui a appris à reconnaître les chats dans les vidéos sans qu’on leur dise ce qu’était un chat, il fallait 16 000 processeurs pour le faire fonctionner.

La poursuite de l’amélioration des performances de ces processeurs nécessite que leurs fabricants embarquent des transistors toujours plus rapides, des caches de mémoire de silicium et des chemins de données plus élevés, mais la chaleur pure générée par tous ces composants limite la rapidité avec laquelle les puces peuvent être exploitées — comme l’illustrent les appareils mobiles. Cela pourrait arrêter les progrès vers les périphériques qui traitent efficacement les images, le son et d’autres informations sensorielles et ensuite l’appliquer à des tâches telles que la reconnaissance faciale et la navigation autonome pour les véhicules. Un large éventail de dispositifs, allant des robots industriels aux voitures autonomes ou aux smartphones, nécessitent un traitement de plus en plus sophistiqué des données sensorielles d’entrée (image, voix, radio …).

Les algorithmes de réseaux neuronaux proviennent de deux domaines poreux mais pourtant largement séparés : le Machine Learning et les neurosciences. Ces réseaux neuronaux ont des caractéristiques très différentes, de sorte qu’il n’est pas clair quelle approche devrait être favorisée pour la mise en oeuvre du matériel. Pourtant, peu d’études les comparent d’un point de vue matériel. Plus tôt en 2016, IBM Research a montré un prototype de système de calcul neuromorphique basé sur la mémoire de changement de phase — qui s’est avéré être aussi difficile à fabriquer en quantité industrielle contrairement aux memristors mis au point par Nugent , avec le sponsor de Hewlett Packard.

L’été 2016, IBM a terminé le projet SyNAPSE avec son partenaire Samsung pour créer un processeur de 4,096 coeurs appelé TrueNorth, capable de simuler des millions de neurones. La communauté scientifique s’intéresse aux excentricités du cerveau humain et la nature éphémère de la façon dont nous stockons les données, pour ainsi créer un dispositif électronique qui simule les synapses et les réseaux de neurones donnant des formes avancées de vie sur terre, ou encore comprendre également le processus de traitement et de stockage des données par des formes biologiques avancées. Et c’est précisément pourquoi les cerveaux sont fascinants pour les chercheurs en intelligence artificielle :

« La façon dont nous traitons l’information et la mémoire n’est absolument pas celle des ordinateurs numériques, mais c’est le fait que nos ordinateurs numériques séparent le stockage et le traitement qui conduit à des inefficiences massives » Source

Nos systèmes numériques actuels sont un facteur d’un milliard moins efficace en termes d’espace et de puissance, et il n’est pas fondamentalement possible de créer un système informatique pour faire ce que notre cerveau peut faire dans sa puissance et son espace utilisés. On peut en effet affirmer que l’attention portée aux réseaux de neurones profonds et à d’autres tendances programmatiques et algorithmiques inspirées par le cerveau (bien que non cérébrales) pourrait ramener l’informatique neuromorphique au premier plan.

« L’informatique neuromorphique est encore à ses débuts » explique Catherine Schuman, une chercheuse travaillant sur ces architectures au Oak Ridge National Laboratory.

Qualcomm commencera à révéler comment la technologie peut être intégrée dans les puces de silicium qui alimentent chaque type de dispositif électronique. Ces puces « neuromorphes » — ainsi nommées parce qu’elles sont modelées sur des cerveaux biologiques — seront conçues pour traiter des données sensorielles telles que les images et le son et pour répondre aux changements de ces données de manière non spécifiquement programmée. Ils promettent d’accélérer des décennies de progrès irréguliers dans l’intelligence artificielle et de conduire à des machines qui sont capables de comprendre et d’interagir avec le monde de manière humaine.

Les capteurs et dispositifs médicaux pourraient suivre les signes vitaux des individus et la réponse aux traitements au fil du temps, apprendre à ajuster les dosages ou même détecter les problèmes tôt. Les smartphones pourraient apprendre à anticiper ce que nous voulons ensuite, comme obtenir un profil sur quelqu’un que nous allons rencontrer ou une alerte pour nous informer qu’il est temps de partir pour notre prochaine réunion. « Nous brouillons la frontière entre le silicium et les systèmes biologiques » affirme Matthew Grob, CTO de Qualcomm.

Nous pouvons résumer la nuance entre les microprocesseurs traditionnels des neuromorphique de la manière suivante :


Conclusions

L’objectif qui n’a pas été atteint, est la livraison d’une révolution dans l’informatique. Mais l’histoire complète n’est pas encore jouée — les dispositifs neuromorphiques pourraient voir apparaître une deuxième vague d’intérêt dans les années à venir. L’appeler ‘seconde vague’ pourrait ne pas être tout à fait juste puisque l’informatique neuromorphique n’a jamais vraiment disparu au départ. Ce qui a été dissipé, fut l’attention qu’on lui portait. Les applications de reconnaissance d’objets dans les images ou de traitement audio, seraient très certainement les premières à bénéficier de la recherche fondamentale neuromorphique. Le Deep Learning se définit d’ailleurs à ce jour comme la pratique poreuse entre le Machine Learning et la neuroscience. Il est donc très probable que les librairies et autres SDK de Deep Learning profitent des avancées de cette ingénierie. Il n’est cependant pas exclue que des prouesses techniques réalisées par ce domaine de recherche donnent lieu à des résultats probants pour l’amélioration progressive du traitement du langage naturel. Les dernières percées en matière de traitement du langage naturel par des modèles de Deep Learning donne lieu à un intérêt certain sur l’importance de cette science qui sera sensiblement développée par les investissements en neuroscience et nanotechnologie.