Non, une IA robotique à une main n’a pas résolu le Rubik’s Cube

et pourquoi c’est important de regarder ce qu’elle a fait précisément (car c’est intéressant pour d’autres raisons)

Ay. Poulain Maubant
Oct 24, 2019 · 18 min read

Mi-octobre 2019, la nouvelle tombe sur les téléscripteurs, surprenante et apparemment un peu effrayante : “Un robot résout un Rubik’s Cube avec une seule main” (voir par exemple cette source en France, du 16 octobre 2019, parmi d’autres. Voir aussi ici, aux États-Unis, et ce ne sont pas les seules). Bigre ! Déjà que résoudre le Rubik’s Cube n’est pas à la portée de tout le monde, et trace une ligne franche entre celles et ceux qui ont trouvé comment faire et les autres, mais le faire avec une seule main, là ça relève du sublime.

Extrait de la première page de la publication pre-print “Solving Rubik’s Cube With a Robot Hand”

La prouesse a été réalisée par une équipe de OpenAI (voir plus loin à ce sujet), qui publie en même temps un “pre-print” (PDF, 51 pages) d’un article scientifique et un article de blog, tous deux intitulés “Solving Rubik’s Cube With a Robot Hand”. Mais de quelle prouesse s’agit-il ?

Très rapidement les conteurs s’affolent. Pour certains commentateurs, c’est une preuve de plus que l’IA forte est au coin de la rue, et qu’on va tous devenir inutiles en un rien de temps. Pour la plupart, c’est la fascination qui domine ; résoudre ce cube d’une seule main correspond sans doute aujourd’hui aux mêmes étonnements et incrédulités d’hier sur la résolution à venir du jeu d’échec.

L’histoire vaut la peine d’être expliquée, analysée et remise en contexte, comme celle des IAs qui avaient prétendument inventé une langue indéchiffrable et que j’avais racontée en 2016 (voir en bas de cet article).

Noter que pendant le temps où je lisais les premières réactions, lisais l’ensemble du papier scientifique et quelques références, et commençais à rassembler mes idées et sources pour en parler ici, plusieurs articles analysant l’histoire sont parus. Je vous conseille notamment celui de The Next Web, “Why a robot that can ‘solve’ Rubik’s Cube one-handed has the AI community at war” et celui, très bien documenté et très bien titré, avec notamment des réactions de quelques chercheurs, de Skynet Today (qui s’est spécialisé sur la mise en perspective (le debunkage) des articles traitant d’IA) : “OpenAI’s dexterous robotic hand — separating progress from PR”.

Allez, c’est parti. (Lisez jusqu’au bout, une girafe vous attend tout en bas)

La manipulation en jeu

Allez hop, défi dans 3… 2… 1…

Les images publiées montrent avec quelle nonchalance une main articulée manie du bout des doigts ce casse-tête et le résout. C’est OpenAI, “une entreprise co-fondée par le patron de Tesla et de SpaceX Elon Musk” (voilà qui attire l’œil, même s’il s’en est éloigné depuis, et que d’autres acteurs peuvent être cités), qui est à l’origine de ces travaux. OpenAI qui “développe des systèmes d’intelligence artificielle qui bénéficient à toute l’humanité”. Dans cette quête aux chemins multiples, la maîtrise du Rubik’s Cube a tous les atours d’un jalon significatif, qui allie cognition et maîtrise des mouvements.

Noter que cette équipe (18 auteur.es cité.es, ce qui n’est pas rien, et pas si courant pour une publication scientifique) ne partait pas de rien. Dans de précédents travaux, (OpenAI, M. Andrychowicz, B. Baker, M. Chociej, R. Józefowicz, B. McGrew, J. Pachocki, A. Petron, M. Plappert,
G. Powell, A. Ray, J. Schneider, S. Sidor, J. Tobin, P. Welinder, L. Weng, and W. Zaremba.
Learning dexterous in-hand manipulation. CoRR, 2018.), OpenAI a déployé des techniques d’apprentissage par renforcement pour faire acquérir à cette même main robotique (Shadow Dexterous Hand de Shadow Robot) l’agilité nécessaire pour réorienter des objets avec l’appui d’un module de vision (voir ici en vidéo). L’entraînement était effectué dans un environnement simulé, dans lequel de nombreuses propriétés physiques du système, telles que les coefficients de frottement et l’apparence des objets, étaient tirées au hasard. Ces capacités acquises dans le monde simulé étaient ensuite transférées à la main robotique physique. Cette méthode ne reposait sur aucune observation des compétences humaines, mais de nombreux comportements issus de la manipulation humaine ont émergé : certains mouvements des doigts, la coordination à plusieurs doigts et l’utilisation contrôlée de la gravité. Ces travaux eux-même découlaient de travaux antérieurs, bien évidemment.

Ce qui est nouveau en octobre

Les images de la vidéo publiée en octobre et que vous voyez un peu plus haut montrent un cube en train d’être résolu. Mais attention ! comme toutes les expériences ont été faites en partant d’un cube résolu vers un cube correctement mélangé, elles ont du être montées à l’envers.

Une lecture attentive de la publication (pre-print de 51 pages, soit une trentaine hors bibliographie et annexes) montre en effet que l’objectif visé n’est pas du tout de résoudre le Cube. D’ailleurs, la main robotique est systématiquement partie d’un cube déjà résolu (par un être humain), avant de le mélanger. C’est écrit noir sur blanc page 23 : “More
concretely, we always start from a solved cube state and ask the hand to move the Rubik’s cube into a fair scramble. Since the problem is symmetric, this is equivalent to solving the Rubik’s cube starting from a fairly scrambled Rubik’s
cube.”
(“Plus précisément, nous partons toujours d’un cube résolu, et demandons à la main de faire les mouvements nécessaires pour bien mélanger. Le problème étant symétrique, il est équivalent à partir d’un cube bien mélangé et le résoudre.”) Noter cette notion de “fair scrambled” : il s’agit — et c’est codifé depuis longtemps dans le milieu du Rubik’s Cube — de le mélanger dans les règles de l’art, pour assurer que le mélange n’est pas trop proche de la solution.

Noter également que toute l’expérience se fait sans module de vision. Ce n’est pas une caméra ou un ensemble de caméras qui donne les positions du cube, mais des capteurs internes au cube (le dispositif est expliqué à partir de la page 4, avec des images du cube éclaté, des senseurs internes qui ont été modifié, de la cage dans laquelle l’expérience se déroule, etc.). C’est un point qui a son importance, on y reviendra.

Le but de l’équipe de recherche est donc d’apprendre à manipuler un objet complexe, et non pas de résoudre un casse-tête (page 4 : “In this work, the key problem is thus about sensing and control, not finding the solution sequence.”, le mot “not” étant mis en exergue dans la publication). Et ce cube est un objet particulièrement complexe, avec pas moins de 66 degrés de liberté, sans compter la prise en compte d’une certaine élasticité interne, que chacun aura pu éprouver un jour en manipulant l’objet. Partir d’un cube résolu et effectuer l’ensemble des mouvements nécessaires pour obtenir un cube mélangé dans les règles de l’art est donc là un protocole expérimental à partir duquel on peut s’accorder pour, par exemple, reproduire l’expérience et la valider par une autre équipe. C’est également un problème pas trop facile, dont on peut mesurer les états intermédiaires, et pour lequel on peut fixer un but, permettant de décider si l’objectif a été atteint. C’est : un problème intéressant, bien énoncé, sur lequel on peut asseoir un travail et un débat scientifique.

Cependant, tout le bénéfice de ce beau problème est perdu dans la communication qui a entouré l’annonce des résultats.

Quel meilleur titre aurait pu être donné à ces travaux ?

La confusion dans la reprise sur les réseaux sociaux et les articles de presse provient du titre du communiqué sur le blog d’OpenAI et du titre du pre-print (il s’agit d’un document écrit normalement dans les règles de l’art scientifique, mais pas encore soumis ou approuvé par une revue scientifique) : “Solving Rubik’s Cube With a Robot Hand”.

Noter que personne ne critique le résultat atteint (ou en tout cas pas la réalité de certaines des avancées relatées dans le papier ; on reviendra plus loin sur le taux de réussite annoncé), mais la présentation qui en est faite. Les critiques sur cette présentation des faits s’adressent tout d’abord aux auteurs initiaux, puis aux rédactions qui ont repris tel quel le document, et enfin à la communauté IA en général et à celles et ceux qui s’y intéressent, pour éviter de retomber encore et encore dans ces pièges de communication.

Tout vient du mot “solving” qui désigne en anglais à la fois la partie cognitive et la partie manipulatrice du processus. OpenAI se défend en disant qu’il ne s’agissait dans leur esprit, bien sûr, que de la partie manipulation, mais la lecture des premiers messages émis, et l’interprétation qui en a été faite par la grande majorité des personnes est sans appel : les termes étaient ambigus. Le choix n’était pas anodin, et d’autres cas dans le passé amènent la communauté IA à exiger plus de rigueur quand on communique sur des résultats.

Comme le complète ensuite ce commentateur sur Twitter, la ligne est fine entre les faits réels et les faits manipulés, et le choix des mots pour expliquer ce qui a été effectivement réalisé est essentiel. Il relève de la responsabilité des auteurs des travaux : “I don’t think it is lying. But “you are not only responsible for what you say, but what others hear”. If you ask 100 lay ppl what they understand from that title + abstract, what % will assume smth else? This isnt their fault. It is the *duty* of a communicator to minimize that %.

Quelques personnes (l’équipe OpenAI et des personnes qui s’en sentent proches, par l’esprit) défendent le titre choisi avec ce mot “Solving”, mais la plupart se rendent compte, après examen, qu’ils ont mal interprété ce qui a été fait, et ont été en quelque sorte trompés. C’est tout le problème de la Hype (hyperbole) qui finit par brouiller le message et faire baisser la confiance dans les technologies. OpenAI a entre temps indiqué avoir écrit par la suite aux journalistes dont les articles risquaient de fourvoyer leur lectorat (voir en bas de l’article de The Next Web), et on doit reconnaître que même s’ils continuent à défendre leur titre, ils admettent avoir du mettre en place des mesures pour ne plus contribuer à brouiller les esprits.

Le titre aurait du mettre en avant la question de la dextérité ou de l’agilité de la main. Sans tomber dans l’autre écueil consistant à donner à croire que les difficultés étaient d’ordre mécanique (cette main de Shadow Robot est un instrument classique bien connu dans le milieu de la robotique, et sert à développer ce secteur particulier). Quelque chose comme : “Manipuler un Rubik’s Cube avec une main robotique” (mais on ne perçoit pas que la main fait tourner les faces) ou “Maîtriser les gestes du Rubik’s Cube avec une main robotique”, ou encore “Une main robotique joue au Rubik’s Cube”, ou mieux, peut-être, pour faire référence aux phases d’apprentissage de la technique de mouvements : “Une main robotique s’exerce au Rubik’s Cube”.

Points d’entrée pour suivre les échanges sur cette affaire

Probablement le chercheur le plus volubile pour critiquer l’angle choisi par OpenAI pour annoncer leurs travaux se trouve le scientifique et entrepreneur Gary Marcus, une personnalité du monde des sciences cognitives qui porte un regard critique affûté sur la prédominance du modèle “apprentissage profond” (c’est plus élaboré que cela, je fais vite). La majeure partie des tweets cités ici viennent du reste du fil de discussion ci-dessous, toujours en cours à l’heure où j’écris ces lignes (j’ai commencé à réunir des éléments le 19, et je publie le 24…). Attention, il n’est pas évident de suivre toutes les ramifications, les gens reprenant, comme souvent, des bouts du fil antérieurs déjà bien discutés, pour en tirer une nouvelle pelote.

On trouve également des discussions qui se concentrent sur une des problématiques levées par cette histoire. Ci-dessous, le fait que ce type d’article et d’annonce combinées est une mauvaise manière de faire de la communication scientifique à destination du large public.

Alors, cette annonce n’a pas d’intérêt ?

En réalité, si, bien au contraire. Il y a, pour atteindre le résultat montré dans le pre-print d’OpenAI, de nombreux aspects qui méritent notre attention, et autant d’angles pour rédiger des articles de vulgarisation plus fouillés. On les trouve aussi bien en lisant le pre-print que les réactions qui en ont découlé — le côté positif de cette erreur de communication. En voici quelques-uns, sans prétendre avoir tout repéré. Ces points mériteraient d’être également creusés, avec des sollicitations auprès d’autres scientifiques pour mieux en dessiner le paysage. Certains sont des points de vigilance à avoir sur le fond scientifique de ces sujets.

  • l’acquisition de l’agilité de la main est le résultat d’allers et retours entre un monde simulé (avec des conditions variables, y compris la gravité qui pouvait prendre des valeurs différentes de celle connue sur Terre) et le monde réel de la main robotique. Ce qui est acquis dans le monde simulé fait l’objet d’un transfert, et c’est principalement la méthode pour faire puis transférer ces connaissances acquises du monde simulé au monde réel qui est l’objet du papier. Un soin particulier a été apporté à la correspondance (et le calibrage) entre monde simulé et monde réel. Il s’agit des sections 4 et 5 du document.
  • des méta-apprentissages semblent avoir émergé de leur dispositif, en raison de certains choix techniques faits. Le méta-apprentissage détecté est celui consistant à apprendre à apprendre sur les caractéristiques dynamiques de l’environnement. Cette propriété n’étant ni un objectif de l’expérience, ni un sous-objectif “programmé””, elle est considérée comme ayant émergé.
  • la main semble avoir acquis ses capacités de mouvement avec une certaine robustesse. Perturbée de diverses manières — remise à zéro soudaine ou modifications des données du monde simulé sur lequel repose le savoir-faire de la main, handicaps physiques sur les doigts, introduction d’objets inconnus dans l’environnement immédiat—, la main continue à présenter des capacités de manipulation correctes.
  • les capacités acquises l’ont cependant été avec un coût très important. Il faut plus de 10000 heures d’entraînement, l’algorithme d’octobre nécessitant 64 GPUs Nvidia V100, les meilleurs GPUs commerciaux à cette date, et 920 machines à 32 CPUs pendant plusieurs mois, représentant 13000 ans de données simulées. C’est bien au-delà de l’acquisition d’une telle dextérité par une main biologique (et le corps qui va avec).
  • les résultats en dextérité sont à discuter. Il faut lire la publication pour avoir les différents détails du protocole (il y a des essais avec 26 rotations des faces du cube, et d’autres avec seulement 15), mais voici ce que OpenAI en dit : “Our method currently solves the Rubik’s Cube 20% of the time when applying a maximally difficult scramble that requires 26 face rotations. For simpler scrambles that require 15 rotations to undo, the success rate is 60%.” Le fait que, sur les essais à 26 rotations, le cube échappe de la main (ou que la main cesse de chercher à faire tourner les faces) 4 fois sur 5 a été considéré par pas mal d’observateurs comme non digne d’être publié. Cependant, ayant la chance de travailler au même endroit que l’ancien Chief Technical Architect de la main de Shadow Robot en question, j’ai discuté avec lui et il me disait qu’à première vue, ce qui a été réalisé, même avec 20% de réussite seulement, mérite d’être remarqué (ce sont mes mots, je manie souvent la litote).
  • je n’ai pas encore regardé ce point en détail, mais j’ai eu l’impression en regardant la bibliographie que de nombreuses recherches sur la dextérité des mains robotiques ne sont pas suivies de près (à moins qu’elles soient listées dans des publications antérieures). Je cherchais des références aux travaux d’Antonio Bicchi et ses équipes, et celles que j’ai trouvé étaient très anciennes. Pour mémoire, Antonio Bicchi a été un des speakers de la Digital Tech Conference 2017 (dont je suis le responsable du programme — profitez-en pour voir l’édition 2019, le 6 décembre prochain, où il sera question entre autres d’IA omniprésente), et son intervention “Robots souples et mains de robots : à la recherche du mouvement fluide” (19'20) vaut le visionnage.
  • le choix de l’implémentation matérielle de la perception dans le dispositif apporte un biais. La perception de l’environnement et l’action sur l’environnement ne sont en effet pas “au même niveau” (pardon pour tous les guillemets ; à chaque fois je voudrais ajouter deux paragraphes pour préciser le sens de ces mots). La première est négligée, et les interactions entre les deux n’ont pas de réalité tangible. Le Rubik’s Cube est un cube spécial contenant des capteurs, et sa position dans l’espace n’est donc pas acquise par un dispositif de vision, extérieur.
    C’est là un point très délicat, qui pourrait paraître futile au profane. Après tout, l’essentiel n’est-il pas que la main dispose de ces positions, pour pouvoir “savoir” ce qu’elle a à faire ? Sauf qu’en en disposant “de manière pure” directement auprès de capteurs, elles se transforment en “données comme les autres”, au même titre que la gravitation, ou que le fait que les doigts ne peuvent pas partir à l’autre bout de la pièce et autres données du problèmes “internes”, alors qu’en devant les acquérir par d’autres moyens (et notamment redondants : vision, tactile etc.), elles seraient d’une toute autre nature. C’est un peu comme si un morceau de monde simulé faisait partie de l’environnement réel de la main. Ou, imaginez, pour vous qui n’êtes pas un robot, c’est comme si les informations de position du cube venaient directement, et sous forme de données ayant une signification spatiale immédiate, activer vos neurones. Or ce n’est pas ce que vous ressentez quand vous jouez au cube. Des informations de type “1cm,3cm,45°” (par ex.) ne sont pas directement accessibles à votre cognition. (si c’est le cas, eh bien, hmmm, rencontrons-nous)
    Ce point me tient particulièrement à cœur. Il se trouve dans mes travaux de thèse où je pose une série de principes pour concevoir ce que j’appelais alors des “hybrions”, systèmes cognitifs artificiels faisant appel à des techniques de différentes natures qui coopèrent, et qui est éduqué peu à peu par son concepteur.
    Pour Gary Marcus, OpenAI a minimisé l’importance de la partie innée de leur procédé, et a minimisé l’importance de la partie symbolique de leur procédé (ces deux notions sont liées, du reste, mais différentes).
    Cette question de l’absence de module de la vision dans cette expérience précise est également, pour certains, une preuve de plus que OpenAI est assez portée à utiliser des “trucs de magicien” (ce qui, quand on pense à l’importance de la main dans le monde de la magie, est une mise en abyme).
  • La plausibilité neurobiologique du procédé proposé est à discuter. Je suis étonné de ne voir aucune référence dans cette publication aux travaux très antérieurs de Gerald M. Edelman sur la Théorie de la Sélection des Groupes Neuronaux (TSGN) (on parle aussi de Darwinisme neuronal pour présenter son approche), par exemple (mais peut-être est-ce fait dans leurs publications antérieures). De manière générale, je trouve que beaucoup de choses sont effectuées aujourd’hui qui ignorent complètement des travaux de grande qualité au siècle dernier. J’invite les jeunes chercheuses et chercheurs à lire, par exemple, l’ouvrage Biologie de la conscience de Gerald M. Edelman (1992), dont j’extraie ici la page 144 :
  • Est-ce que cette expérimentation qui a un taux d’échecs de 80%, malgré des temps d’apprentissage très élevés, permet de dire que cette méthode d’acquisition de la dextérité pourrait se généraliser à d’autres objets, à d’autres types de manipulations ? Beaucoup en doutent. D’autres méthodes sont expérimentées, qui donnent des résultats en des temps largement inférieurs, comme on peut le lire dans le papier “Deep Dynamics Models for Learning Dexterous Manipulation” (cité ci-dessous) soumis fin septembre 2019.
  • Ce qui nous amène a une promesse plus générale qui sous-tend la publication d’OpenAI. Qu’il s’agit d’avancer sur le chemin des Intelligences Artificielles Générales (AGI) (en l’occurrence ici incarnées dans un robot mécanique). (Voir à ce sujet l’essai fin 2018 de Carlos E. Perez : How Hand Dexterity leads to Human General Intelligence)
    Là encore des doutes sont émis sur la pertinence de l’approche technique. L’intervenant ci-dessous est à ce titre un profil intéressant à lire, ses commentaires techniques, souvent valables, reposant de manière explicite sur une compréhension religieuse de la cognition (et pas de Darwinisme neuronal à la Edelman pour lui, c’est certain).
  • À cet égard, un autre débat a lieu en ce moment entre des grands noms de l’IA, sur la validité, ou plutôt sur le caractère généraliste du Deep Learning pour avancer vers cet objectif des AGI. Pour certains, il faudrait cesser de diffuser cette petite musique que l’Apprentissage profond serait omnipotent. Gary Marcus est également impliqué dans ce débat (il vient de sortir un livre, et est assez disponible pour discuter aujourd’hui), débat que je n’ai pas vu repris en France encore. On peut plonger directement dans ce débat en lisant une réponse de l’intéressé à un post de Yoshua Bengio sur son compte Facebook il y a deux semaines (la réponse contient le post, c’est pourquoi je propose ce point d’entrée).
  • Enfin, il pourrait être intéressant d’étudier si une stratégie d’OpenAI n’est pas d’avancer dans le paysage médiatique en créant la controverse. L’épisode précédent du système générateur de texte GPT2, qui a été retiré des yeux et des mains du public, et dont les tenants et aboutissants sont discutés ici, si vous avez raté cet épisode, a laissé des traces.

Ce que j’en pense

  • On n’a pas fini de voir des articles ne présentant pas correctement les avancées de la recherche en IA, et il faut y prendre garde à toutes les étapes de publication d’une information, ou sinon cela va vraiment finir par un bullshit généralisé.
  • Je ne suis pas certain de ce qui a été vraiment appris par cette main. Je pense que c’est le couple “main-cube” qui a appris quelque chose, car les senseurs du cube sont trop partie prenante de l’ensemble. Et je dirais même, qu’au vu de tous les ajustements rendus nécessaires et effectués par les humains dans cette expérience, c’est l’ensemble “main-cube-équipeOpenAI” qui est l’élément apprenant. Remplacez le cube par un autre objet, sans toucher à rien du matériel cognitif qui a été “calculé” et les résultats ne seront pas aussi bons qu’on pourrait l’espérer si un couple main-vision isolé avait été utilisé. Cela rejoint le point 3 des conclusions de Skynet Today, d’ailleurs (tout en bas de leur article).
  • Qu’il y ait de plus en plus d’études de systèmes comportant une partie simulée et une partie incarnée est une bonne nouvelle. La possibilité d’expérimenter dans un “monde intérieur” les connaissances acquises dans le monde incarné, dans des phases “de rêve”, et celles de “pré-voir” l’ensemble des actions possibles avant de “lancer un geste”, sont des composantes importantes de la cognition.
  • Que des propriétés non prévues à l’origine des recherches semblent émerger (ici, les phénomènes de meta-apprentissage), et que ces émergences soient repérées, discutées, étudiées et fassent l’objet de souhaits de futures recherches est également une bonne nouvelle. Trop souvent les recherches en sciences cognitives se contentent d’étudier ce qui était attendu et ne sortent pas de leur cadre initial, laissant de côté les propriétés émergentes, ou bien ignorant les utilisations de leurs systèmes dans d’autres contextes (par exemple ces systèmes de vision qui ont tellement vus de moutons lors des phases d’apprentissage, qu’ils en voient dans des images qui n’en comportent pas. Janelle Shane, citée ci-dessous, s’amuse beaucoup à tester ce type de limites).
  • On reste encore loin loin loin d’un chemin vers les AGI. L’étude en détail de ce qui a été réalisé ici (cf. les points de vigilance listés dans la section précédente) montre qu’on est loin des processus permettant la généralisation de cette classe de problèmes — la manipulation d’objets complexes— et donc encore plus loin de systèmes d’IA ayant des capacités générales sur des classes de problèmes vraiment différentes.
  • Manipuler le cube à une main semble un exploit. Ça l’est pour un humain. Mais ce qui serait un vrai exploit robotique, pour moi, ce serait le manipuler avec deux mains robotiques !

Ah ! dernier remarque… j’ai l’impression de n’avoir vu que des hommes discuter de ce sujet, que ce soit sur Twitter ou sur Reddit. Je trouve que c’est significatif.

Eh, vous nous aviez promis une girafe, tout là-haut !

C’est l’aspect assez fun de l’expérimentation. Parmi les éléments qui ont été choisis par l’équipe pour perturber la main robotique pendant son acquisition, il y a… une girafe en peluche. Parce que… pourquoi pas ?

Alors, tant qu’à faire, nous sommes quelques-un/es à proposer que le test de la girafe en peluche devienne un test standard de perturbation des robots. Faisons en sorte qu’en 2417, quand le premier robot humanoïde parfait sera livré, le test ultime, essentiel, et dont on ne se souvient pas trop d’où il sort mais c’est la tradition ma bonne dame, soit le Test de la Girafe en Peluche. Roboticiennes, roboticiens, allez vite vous procurer votre girafe en peluche, puis suivez Janelle Shane qui est à la pointe de ce mouvement (suivez là surtout parce qu’elle teste les limites des IA, et pas seulement celles qui voient des moutons ou des girafes là où il n’y a rien. Regardez sur http://aiweirdness.com) :

Eh, vous avez vu, il y a “IA” dans gIrAfe. Hasard ? je ne crois pas !

Pour en savoir plus sur l’auteur de ce billet

Au fait, qu’est-ce qui me donne la possibilité de vous raconter tout cela avec le minimum d’assurance ?

J’ai commencé à faire de la recherche dans le domaines des Intelligences Artificielles et des Sciences Cognitives au début des années 90, en particulier sur ces systèmes hybrides faisant coopérer des techniques IA de différentes natures. Je le raconte ici et là sur Medium. Vous pouvez commencer par exemple avec les expériences sensori-motrices d’un robot -simulé- insectoïde. Vous pouvez également lire ici mon article debunk précédent : “Non, deux IA n’ont pas inventé en 2016 une langue indéchiffrable”.

J’effectue régulièrement des formations et des conférences autour des IA (et parfois des missions de conseil), selon une vision mettant en avant la coopération, plus que la lutte, des intelligences. De temps à autres mes présentations vont sur slideshare.

Enfin, concernant la communication scientifique, j’effectue les cahiers de veille de la Fondation Mines-Télécom (le dernier est sur le Quantique ; il y en a eu un sur les IA), mais plus encore, voici un travail récent effectué pour la Chaire Valeurs et Politiques des Informations Personnelles : un livre électronique de vulgarisation à plusieurs modes et formats de lecture en appui d’une publication scientifique, sur le sujet “Personnalisation de services : quelles technologies pour la préservation de la vie privée ?”.

Ay. Poulain Maubant

Written by

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade