Voir sans croire : comment les deepfakes s’apprêtent à transformer notre réalité

Noémie Kempf
La Nouvelle Frontière
6 min readOct 22, 2019

“Avec la capacité de modifier des images, vous avez le pouvoir de changer l’Histoire.”

C’est ainsi que Hany Farid, Professeur à UC Berkeley, résume l’un des grands enjeux à venir de notre société. Dans un monde où chacun peut créer son propre contenu et s’appuyer sur la nature virale des plateformes sociales pour le diffuser en masse, il devient de plus en plus difficile de faire la part vrai et du faux. D’autant plus qu’aujourd’hui, certains contenus multimédia de synthèse, générés à l’aide de l’intelligence artificielle, et appelés deepfakes, sont plus vrais que nature, voire impossibles à démasquer. De quoi bouleverser notre manière de percevoir et d’interpréter la réalité.

Photo : Elijah O’Donnell sur Unsplash

Mais d’abord, un deepfake, c’est quoi ?

Commençons par clarifier une notion : deepfake et fake news ne veulent pas dire la même chose.

🗞️ Les fake news sont un type de propagande, qui consistent à délibérément diffuser des informations mensongères, des campagnes de désinformation ou des canulars, qui sont généralement reprises et diffusées par les médias traditionnels et les réseaux sociaux. Le concept de fake news est donc en quelque sorte la version moderne et digitale de la traditionnelle propagande politique.

🤖 Un deepfake est une technique de synthèse de contenu audiovisuel générée par une intelligence artificielle. Elle consiste généralement à superposer des images ou vidéos existantes l’une sur l’autre (vidéo ou photographie). L’un des deepfakes les plus connus est par exemple le faux discours de Barack Obama, déclarant, stoïque, en face d’une caméra “President Trump is a total and complete dipshit”.

Les deepfakes sont donc une sous-catégorie de fake news, concernant plus particulièrement le contenu audiovisuel (image, vidéo, ainsi qu’audio) et peuvent donc en théorie être utilisés comme un outil de destruction massive de réputation de n’importe quelle personnalité publique.

En backstage d’un deepfake 👯

Dans cet exemple de deepfake, la vidéo du dessus est la vidéo “source” jouée par un acteur, sur laquelle est superposée la vidéo de Vladimir Poutine, afin de concilier l’apparence physique du président Russe avec les mimiques ainsi que les paroles de l’acteur anonyme.

Mais l’usage des deepfakes ne s’arrête pas au détournement de l’image de dirigeants internationaux et de personnalités politiques. Dès 2017, l’industrie pornographique, toujours en avance sur son temps, s’est emparée de la tendance. De fausses sex tapes mettant en scène des actrices célèbres comme Emma Watson, Taylor Swift ou Angelina Jolie ont été diffusées à grande échelle et ont causé la stupeur générale avant d’être démasquées comme étant des images de synthèse.

De FaceApp à Canny AI : les deepfakes se sont installés dans nos vies.

Le pouvoir FaceApp en action sur un jeune enfant 😱 Copyright : KnowYourMeme.com

Si vous avez un smartphone et des amis, vous avez forcément vu passer cet été sur vos réseaux à peu près un million de selfies de gens en version vieillie.

L’application FaceApp, créée par des développeurs Russes a fait le buzz un peu partout dans le monde, permettant à ses utilisateurs de voir si ils/elles seraient encore potables dans 20 ans (pour ma part, il semblerait que j’aie le potentiel de séduction d’une momie à 50 ans).

Derrière les résultats pour le moins saisissants, se cache la même technologie que celle utilisée pour les vidéos deepfake : une classe d’algorithme de machine learning répondant au doux nom de réseaux adverses génératifs.

Nous ne nous attarderons pas sur la technologie en elle-même, mais remarquez tout de même que ça n’a eu l’air de déranger personne d’altérer du contenu personnel et de le balancer sur les réseaux sociaux à la vue et à la portée de tous — malgré un retour de bâton pour FaceApp qui a été un temps suspectée par le FBI de détourner les données de ses utilisateurs.

Outre la création de contenu de synthèse par des applications de loisirs, l’usage de la technologie a été intégrée par de nombreuses startups qui en ont fait un outil de travail d’une efficacité redoutable :

🎤 Modulate permet à ses utilisateurs de prendre la voix de la personne de leur choix.

🎥 Canny AI utilise l’intelligence artificielle pour traduire un spot publicitaire en d’autres langues, tout en gardant le même acteur ou la même actrice (imaginez Brad Pitt parlant un swahili impeccable).

Le contenu de synthèse est bien plus développé et présent dans nos vies quotidiennes que la plupart d’entre nous ne le suspectent, pour deux raisons

1/ Les deepfakes sont de plus en plus simples a créer, et ne sont désormais plus réservés aux développeurs d’élite.

2/ Avant de créer des réalités alternatives, nous avons pendant de longues années créé des réalités augmentées, portées par les filtres et les enrichissements interactifs appliqués sur nos vies.

Du filtre au fake : notre réalité n’est plus ce qu’elle était.

Avez-vous déjà utilisé un filtre sur Snapchat ? Vous êtes-vous déjà demandé quelle était la technologie qui alimentait les oreilles de lapin ou la couronne de fleurs qui sont devenus le nouvel attribut des influenceuses Instagram ?

Au début des années 2010, nous avons inconsciemment ouvert la porte aux deepfakes en intégrant de plus en plus de filtres dans nos vies : sur nos photos de vacances publiées sur Unsplash, dans nos Stories Instagram, … Sans jamais nous poser la question de l’impact à long terme de cette distorsion permanente de la réalité. Les deepfakes sont le niveau supérieur de ce mensonge permanent.

Et ce niveau supérieur n’est ni amusant, ni glorieux. Au contraire, il est en majeure partie utilisé à des fins malveillantes :

Il y a quelques mois, le CEO d’une société anglaise a été piégé par un deepfake — un appel vocal en direct de son boss (qui était en réalité une Intelligence Artificielle) lui demandant de virer 200,000€ sur le compte d’un “fournisseur hongrois”, qui s’est avéré être le compte de hackers mal intentionnés.

Avec l’amélioration constante de la qualité des deepfakes, nous courons tous les risque d’être piégés : rien n’empêche en théorie une personne mal intentionnée de créer une fausse vidéo dans le simple but de nuire à votre réputation, de vous faire perdre votre emploi ou de détruire votre couple…

Les deepfakes appellent certes une meilleure régulation des données et une plus forte implication des législateurs, mais il me semble que le sujet est plus vaste.

Quoi qu’il arrive, nous n’échapperons pas à l’accélération de la production de contenu de synthèse, ni à la manipulation de l’information à grande échelle.

En revanche, il est encore temps de faire le tri parmi les sources de contenu que nous acceptons de suivre et de croire. Ce qui amène à se poser la question : le monde de demain sera-t-il segmenté en “réseaux d’information” ou en “communautés certifiées” ? Comment allons-nous nous assurer de pouvoir croire ce que nous voyons ?

BONUS: J’ai pu discuter du sujet des deepfakes lors d’un séminaire sur l’Intelligence Artificielle organisé par le réseau NOVA, et faire une restitution des échanges qui dure deux minutes chrono ⏱️

Si l’article vous a plu, inscrivez-vous à la Newsletter de La Nouvelle Frontière ! Vous serez alerté.e des nouveaux articles (pas de spam et des emails peu fréquents, c’est promis 💘)

Pour aller plus loin

Le Wall Street Journal a réalisé un reportage intéressant sur le sujet — on y apprend que même le Pentagone est sur le coup ! 😱

--

--

Noémie Kempf
La Nouvelle Frontière

Storyteller & Brand Strategist. Also meme addict 💎, travel enthusiast 🌏, and part-time nerd 🤓.