Deepfake 升級假資訊氾濫的問題

Foxccino
Foxccino
Nov 2 · 7 min read

Abstract

Deepfake 是「deep learning」和「fake」的混成詞,
專指用基於人工智能的人體圖像合成技術。
此技術可將已有的圖像和影片疊加至目標圖像或影片上。

根據 Deeptrace 研究,2019 網路上的合成影片(造假影片)比起 2018 多出了 84%,超過 14,000 則合成影片在網路流竄

source

What’s Deepfake?

I. 起源

近兩年來湧現了大量圖像生成模型相關論文,但都只能算是 Demo,沒有太多實用價值。而 DEEPFAKES 以及 Zao 讓 AI 影像合成技術真正進入大家的視野中。

Deepfakes

Zao

source

II. 技術

基本原理

1.提取數據
2.訓練模型
3.置換

i ) 提取數據

將原始圖像和目標圖像輸入模型中,
利用 AI 深度學習的卷積神經網絡進行編碼,
然後從中提取出重要特徵逐一標記,就會產生一個數據庫可以使用的資料。

source

ii ) 訓練模型

除了輸入大量原始圖檔,還必須要優化 AI 模型的精準度,要讓模型可以分辨變形、轉向、不同尺寸的圖檔。
因為動態的影片中,我們的人臉並不是永遠固定正臉面對鏡頭,其中的技術細節可以參考論文 《Deep Image Prior》

source

iii ) 置換

最後,模型會根據標記出的重要特徵點進行置換動作。

source

技術難點

影片的原始圖像受限於技術問題,清晰度都會非常有限
所以需要經過特殊處理以提高人臉清晰度,讓算法可以準確辨識。

ii ) 人臉識別問題

算法要識別出人臉,需要經過預先的處理。
但是如果角度較偏,就有可能導致算法無法識別出人臉

iii ) 人臉轉換效果問題

當我們在進行人臉轉換時,成像效果會受原始的圖像質量限制
如果要置換的圖像需要更高精準度的成像品質時就無法達成。

iv ) 圖片合成問題

目前生成出來的圖像都是一個正方形的方塊,
所以如何將這個方塊融入影片中又是一項挑戰。

v ) 影片抖動問題

目前有兩個原因會造成影片中的人臉、物品抖動:

  • 識別中斷
  • 算法導致人臉大小變化

如果影片中的人臉因為角度、光線、距離等物理因素導致識別中斷 1 毫秒,就有可能讓影片中的人臉抖動,讓觀看者感到不自然。

而算法導致的人臉大小變化,則是因為模型進行人臉置換時,時時都在進行運算,而算法的不精確就有可能造成影片中的人臉有不自然的抖動,目前也只能不斷改進算法來改進此問題。

III. 現況

Deepfake 技術目前最大的應用在情色網站上,
但令人擔憂的是,還有多則爆火的影片是
竄改美國政治人物演講的影片

Deepfake 技術首次出現在大眾眼前,
就是透過將女明星的臉置換入情色片中,之後此類事件也是曾出不窮。

今年5月川普的對手南希·佩洛希也深受其害,
他的演講影片被竄改後,正常演講都口齒不清、結巴不斷,事後不僅被政治對手作為攻擊的利器,大量被誤導的民眾至今甚至認為南希的“健康問題”,讓他不適任現在的職位。

Why would Deepfake go viral?

  1. 可以做到更多事

I. 門檻降低

i ) 使用門檻

但是 AI 深度學習 (Deep Learning) 的出現,讓影片合成技術的門檻大大降低,在過去只有好萊塢可以完成的換臉特效,現在普通人都可以透過一台手機做到。

ii ) 技術門檻

最原始的 Deepfake 技術需要透過上萬張照片作為訓練素材,才能完成替換影片中的真實畫面。但是現在的造假技術甚至可以做到只憑一張照片就能自動生成畫面。

II. 更精準、更細節

換句話說,我們現在可以輕鬆的製造出一個其他人的臉,說出自己想說的話,而且還很難被識破。

source

Deepfake is a PROBLEM.

I. 眼見不為憑

我們已經處在一個資訊爆炸的時代,這項技術已經達到實現普及化的可能性,假資料充斥在我們身邊已經是現在進行式。

而且這個問題並非我們過去所相像,世界會被龐大的組織壟斷資訊,只發布對自己有利的消息,剝奪我們知道真相的權利。現在人人都有能力散佈假消息,而且還是非常逼真的手段。

II. 就算知道是造假影片…

問題是,資訊的傳播不是亡羊補牢可以解決的事情。當一則假資訊流傳出去時,我們可以即時圍堵,避免更多人接收到第一手錯誤訊息,但是我們無法知道誰已經接收到錯誤的訊息,並且告知他們他們獲得一個錯誤的資訊,所以錯誤的訊息還是會透過那些人再次傳播出去。

source

III. 解決方法

政府干預

民間自組織

更多

source

Last

秉持著《技術中立原則》,我們無法控制任何強大的科技被如何利用,但是我們也不能放下警惕,任由那些以不正當手段獲取好處的人/組織肆意而為。

ref

川普分享”造假”視頻打擊對手,佩洛西變老還說話結巴

深度学习与神经网络:AutoEncoder自编码

深度解密换脸应用Deepfake

How deep learning fakes videos (Deepfake) and how to detect it?

AI 的逆襲,眼⾒真的為憑嗎?

Prepare for the Deepfake Era of Web Video

Most Deepfakes Are Porn, and They’re Multiplying Fast

Zeton

知識、心得、教程、社論

Foxccino

Written by

Foxccino

Live in Dream, Work for Dream.

Zeton

Zeton

知識、心得、教程、社論

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade