Les applications du machine learning pour le design

En ouverture de MAX, le Chief Product Officer d’Adobe, Scott Belsky, a affirmé que les algorithmes ne remplaceraient jamais l’imagination humaine mais pouvaient au contraire l’amplifier. Il en va ainsi du machine learning, dont les applications ont toutefois la vocation d’assister le travail des designers. 35 % estiment que l’intelligence artificielle et le machine learning ont un rôle extrêmement important à jouer dans leur activité.

Adobe Sensei est l’un des programmes qui met en œuvre le machine learning au service de l’expérience utilisateur. Il est embarqué dans de nombreux logiciels dAdobe Cloud Platform, où il pilote déjà plus de 50 fonctionnalités.

Assister les designers dans les tâches répétitives qu’ils mènent n’est pas le seul bénéfice du machine learning. Il bénéficie de nouveaux potentiels, en particulier dans les domaines de la personnalisation, des interactions homme-machine, de la manipulation des images. Ses opportunités sont semble-t-il souvent cachées tant sa dimension expérimentale est centrale.

Lors d’une session dédiée à ce sujet dans le cadre de MAX, Megan Donahue et Patrick Hebron ont brillamment détaillé en quoi le machine learning influence ce que nous designons et comment nous le designons. 
Ils rappellent à juste titre que le machine learning n’est pas seulement une technologie à consommer mais qu’elle se définit aussi par un ensemble de règles éthiques (elle peut potentiellement exploiter de nombreuses données personnelles). Dans ce domaine, la confiance est bien sûr essentielle.

L’équipe de Sensei a présenté de nombreux cas d’application du machine learning au design d’interfaces, notamment dans la personnalisation (avec Netflix, Amazon), les contenus (la reconnaissance faciale dans les photographies), la manipulation des images (les filtres de Snapchat), les interactions homme-machine (Kinect, Amazon Echo).

Le machine learning permet par exemple de créer des expériences “intelligentes” dans lesquelles les interfaces découvrent les souhaits des utilisateurs, identifient des événements afin de formuler des recommandations. Adobe a nommé ce segment “intelligence des expériences”. Ils concluent sur les limites du machine learning, dont les résultats sont souvent inattendus. Certains scénarios complexes ne sont pas pour le moment réalisables dans le domaine de la génération de contenu (par exemple, créer une photo sans reproduire le réel), des interfaces conversationnelles ou de l’assistance par les robots.