IA & Deepfake : Comment l’industrie du X a remodelé notre rapport au réel ?

Lucas Padova
Meetech - We Love Tech
9 min readSep 24, 2019

--

Comment réagiriez-vous si vous apparaissiez dans une vidéo à laquelle vous n’avez jamais participé ?

Politiques, PDG, citoyens, tous sont des cibles potentielles. C’est en tout cas la problématique qu’ont dû affronter plusieurs stars d’Hollywood lorsqu’elles se sont retrouvées malgré elles, dans des vidéos à caractère pornographique appelées Deepfakes.

La technologie pour créer ces vidéos artificielles repose sur des algorithmes de Deep Learning. L’industrie du X a très souvent été précurseur en ce qui concerne l’innovation, notamment dans le numérique, pour le meilleur et pour le pire… Ici, l’utilisation des Deepfakes dans ce secteur a présagé son essor.

Au-delà de l’industrie du X, ce type d’utilisation de l’intelligence artificielle nous appelle à prendre conscience du changement de paradigme, auquel notre société est confrontée. Filtre facial, Fake news et Deepfakes, nous entrons petit à petit, à l’aide des outils technologiques, dans une ère où le réel peut devenir plus subjectif, et où le paradigme commun dans lequel nous évoluons tend parfois à s’éluder. De la création de paradis artificiels jusqu’aux enfers réels.

Qu’est qu’un Deepfake ?

Un Deepfake est une vidéo produite ou modifiée grâce à des techniques de Machine Learning. L’origine du Deepfake en tant qu’outil relativement facile d’accès, fait son apparition sur la plateforme Reddit en 2017. La triste célébrité du Deepfake vient de son utilisation dans le cadre de créations illégales de vidéos à caractère pornographique dont le principe est de changer le visage d’actrices X par ceux de stars d’Hollywood.

La création de Deepfakes, un jeu d’enfants ?

Pour mieux comprendre son fonctionnement, nous allons ici résumer les étapes de création d’un Deepfake.

Le principe est relativement simple, tout d’abord comme l’ensemble des applications de Machine Learning, l’algorithme utilisé a besoin de beaucoup de données. Dans ce cas-ci, les données sont les images des visages à intervertir.

Pour cela, il suffit de récupérer des vidéos et d’utiliser un outil de séparation de vidéo en images. Pour une vidéo de 30 min à 25 images par seconde, vous obtenez donc 45000 images.

Ensuite, l’utilisation d’un outil de reconnaissance faciale permet de récupérer uniquement les visages ciblés.

Après avoir récupéré les données d’entrée, il faut entraîner le modèle. Pour cela un ordinateur et une bonne carte graphique suffisent. L’objectif est de faire passer les images par un encodeur qui va compresser l’input en des informations relatives à la photo, puis à un décodeur va reconstruire l’image à partir du résultat de la compression. En résumé, le modèle va comprendre le concept de visage qu’il va traiter.

Schéma de La phase d’entrainement du modèle

L’étape finale va être la génération du Deepfake. Pour cela, dans notre exemple le décodeur B tentera de reconstruire le sujet B à partir des informations relatives au sujet A. Cela signifie générer un visage pour le sujet B avec les même caractéristiques, la même expression et la même orientation que le sujet A.

Schéma de génération d’un Deepfake

Les Deepfakes, une menace pour les politiques, les PDG et citoyens

Loin d’être un phénomène isolé au secteur du X, les Deepfakes à caractère pornographique n’ont été que le début en ce qui concerne les applications possibles du Machine Learning dans le cadre du Deepfake.

Deepfakes & politique

Deepfake d’un discours d’Obama généré à partir d’un fichier audio

Des chercheurs de l’université de Washington ont réussi à générer un discours de Barack Obama simplement à partir de l’enregistrement audio de l’un des chercheurs. Ils ont réussi, à partir de la création d’un input audio, à transformer l’input en disposition labiale. Les chercheurs ont ensuite ajouté de la texture à la bouche afin d’intégrer image par image les frames dans une vidéo d’un discours existant.

L’utilisation de ce genre de technique pourrait avoir un impact conséquent lors de campagne de déstabilisation de personnalités politiques. De plus, ce genre d’utilisation nous montre à quel point nous devrons affûter notre esprit critique à l’égard des informations postées sur internet.

Mini-reportage vidéo Nova sur les Deepfakes et ses impacts sur les personnalités publiques

Deepfakes & entreprises

Le Wall Street Journal dans un article d’août 2019, a révélé qu’une société allemande a été la victime d’une arnaque au président. Ce type d’arnaque consiste à se faire passer pour le dirigeant d’une entreprise afin de dérober de l’argent à la société. Pour cette entreprise, les malfaiteurs ont synthétisé la voix du PDG afin de dérober 220 000 euros. Le Deepfake peut donc être aujourd’hui un outil très efficace de social engineering.

Mais ce n’est pas le seul moyen de déstabilisation d’une entreprise. En effet, les artistes britanniques Bill Posters et Daniel Howe, avec l’aide de l’agence de publicité Canny, ont réussi à générer une vidéo de Mark Zuckerberg digne d’un scénario de la série Black Mirror en mettant en scène Zuckerberg en super vilain.

Industrialisation du Deepfake

Outre le fait que, répandre nos photos et vidéos sur internet, peut nous conduire à être la cible d’un Deepfake, un autre phénomène semble intéressant ; celui de l’industrialisation des Deepfakes et son accès au grand public. En effet, nous voyons apparaître de plus en plus d’applications utilisant le Machine Learning. Nous pouvons en citer deux : FaceApp et Zao.

FaceApp est une application russe permettant à partir de photos de générer un visage vieillit

Exemple d’utilisation de FaceApp sur Jacques Chirac

Zao est quant à elle une application chinoise permettant de remplacer, dans une vidéo, le visage d’un acteur de film ou de série par un autre, lors de scènes emblématiques.

Exemple d’utilisation de Zao (image)
Exemple d’utilisation de Zao (Vidéo) — Le Parisien

Nous pouvons souligner que malgré l’attrait que les utilisateurs trouvent à ces applications, il existe des dangers en matière d’utilisation des données personnelles de ces deux entreprises. Dangers qui ont par ailleurs fait polémique au regard des conditions d’utilisation de ces deux applications.

Ce type d’applications permettent de nous faire prendre conscience, qu’avec une simple photo, il est très facilement possible de manipuler des vidéos. Zao montre que les portes vers l’industrialisation du Fake ne sont plus verrouillées, mettant ainsi à l’épreuve l’adage « Je ne crois que ce que je vois ».

Face au Deepfakes, 3 typologies d’acteurs à la manœuvre

Les Etats

Le Pentagone travaille avec plusieurs des plus grandes institutions de recherche du pays pour devancer les Deepfakes. Pour cela le Pentagone mise sur deux axes. Apprendre à fabriquer des Deepfakes afin de les utiliser dans le programme de détection de Deepfake et le développement de la technologie pour détecter les Deepfakes. Le Pentagone souhaite donc combattre le feu par feu en utilisant un modèle de Machine Learning pour lui apprendre à repérer les fakes.

Les sociétés privées

A Amsterdam, Deeptrace développe un système de détection de Deepfakes. Giorio Patrini directeur général de Deeptrace explique que :

« Tout algorithme utilisé pour manipuler les images laisse derrière lui des motifs géométriques […] Ces artefacts n’apparaissent pas dans les images authentiques d’une caméra et sont souvent invisibles à l’œil humain. »

Les universitaires

Des chercheurs de Université d’État de New York à Albany ont publiés deux articles de recherche décrivant des moyens de détecter les Deepfake grâce à la détection de défauts (ndlr : appelés Artefacts), qui ne peuvent pas être réparés facilement par les faussaires.

Ci dessous-les deux articles mentionnés

Siwei Lyu un des auteurs des études ci-dessus, professeur du département Informatique, directeur du Laboratoire de vision par ordinateur et du laboratoire de Machine Learning de l’Université d’État de New York à Albany, montre sur sa chaîne Youtube l’utilisation d’un outil permettant de détecter un Deepfake. La vidéo ci-dessous montre que le modèle permet de détecter très facilement la présence d’un Deepfake. Le graphique apposé au Deepfake permet de visualiser, par seconde, la probabilité de présence d’artefacts sur la vidéo. Plus l’indicateur tend vers 1 plus la probabilité que la vidéo soit un Deepfake est avérée.

Modèle de détection d’un Deepfake — Vidéo fake

La vidéo ci-dessous permet quant à elle de comparer l’efficacité de l’outil en l’utilisant sur la vidéo originale de Marc Zuckerberg. La vidéo montre cette fois-ci, que l’indicateur tend vers 0.

Modèle de détection de Deepfake — Vidéo orignale

Finalement, les vérités alternatives sont-elles si nouvelles que cela ?

En effet, la création de Fakes n’est pas une invention récente. L’Union Soviétique utilisait déjà à l’époque un système de falsification photographique pour éliminer des archives, les personnes tombées en disgrâce.

A l’ère du capitalisme, les publicités nous montrent des images déformées de la réalité. Les mannequins made in photoshop sont-elles la norme après tout ?

Ici, l’innovation réside dans l’évolution technique apportée par le Machine Learning et sa possibilité d’industrialisation du Fake à bas coût. Les Deepfakes sont un état de fait. Il n’est pas possible pour l’appareil législatif d’en faire respecter l’interdiction de production et il est à craindre que le doute semé par un seul Deepfake très convaincant, puisse altérer notre confiance dans l’audio et la vidéo de façon définitive.

Il convient cependant de mettre en place les conditions nécessaires pour armer d’outils et de connaissances les citoyens, les entreprises et les Etats afin de limiter l’impact des Deepfakes.

Au niveau technologique d’abord. Comme nous l’avons vu, des acteurs ont pris possession du sujet et mettent en place les outils techniques pour contrer les Deepfakes. Il ne serait pas étonnant qu’une entreprise ou qu’un Etat mette à disposition un bloqueur de Deepfake à la façon d’Adblock, le bloqueur de publicité.

Au niveau intellectuel, les Deepfakes nous obligerons à affûter notre sens critique vis-à-vis des informations que nous recevons tous les jours. Encore faut-il que ce sens critique soit enseigné et promu.

Enfin, terminons sur une note plus optimiste, au niveau moral cette fois. De l’avènement des Fakes, pourrait naître un engouement pour les valeurs d’authenticité et de confiance. En effet, de la même manière que la loi de l’offre et la demande ; qui établit que, plus une denrée devient rare, plus son prix augmente. L’authenticité et la confiance pourraient ainsi prendre mécaniquement en valeur. Comme le montre l’histoire de Qiao Biluo une streameuse Chinoise de 58 ans qui, après la perte d’un filtre de beauté en direct sur une plateforme de stream, est passée de 100 000 à 750 000 abonnés.

Dans un monde peuplé de mensonges, l’authenticité deviendrait-elle reine ?

Sources :

--

--