Deepfake 升級假資訊氾濫的問題

Foxccino
誌瓜筆記
Published in
7 min readNov 2, 2019

Abstract

Deepfake 是「deep learning」和「fake」的混成詞,
專指用基於人工智能的人體圖像合成技術。
此技術可將已有的圖像和影片疊加至目標圖像或影片上。

根據 Deeptrace 研究,2019 網路上的合成影片(造假影片)比起 2018 多出了 84%,超過 14,000 則合成影片在網路流竄

source

What’s Deepfake?

I. 起源

近兩年來湧現了大量圖像生成模型相關論文,但都只能算是 Demo,沒有太多實用價值。而 DEEPFAKES 以及 Zao 讓 AI 影像合成技術真正進入大家的視野中。

Deepfakes

一位名為 deepfakes 的 Reddit 用戶,將 AI 影像合成的論文實體化,在平台上上傳了多則偽造影片,內容是將多名知名女星的臉套入情色片中。雖然事後這名用戶被平台永久封鎖了,但是人們也沿用他的名號來命名「AI 換臉技術」 — — Deepfake。

Zao

Zao 這款 “made in China” 的 App 是深度圖像生成模型一次非常成功的應用。它甚至做到只拿一張用戶正臉照,就可以用你的臉做出表情包、把你丟進電影裡跟偶像同台演出。

source

II. 技術

基本原理

Deepfake 的主要流程可以分為三大步驟:

1.提取數據
2.訓練模型
3.置換

i ) 提取數據

將原始圖像和目標圖像輸入模型中,
利用 AI 深度學習的卷積神經網絡進行編碼,
然後從中提取出重要特徵逐一標記,就會產生一個數據庫可以使用的資料。

source

ii ) 訓練模型

除了輸入大量原始圖檔,還必須要優化 AI 模型的精準度,要讓模型可以分辨變形、轉向、不同尺寸的圖檔。
因為動態的影片中,我們的人臉並不是永遠固定正臉面對鏡頭,其中的技術細節可以參考論文 《Deep Image Prior》

source

iii ) 置換

最後,模型會根據標記出的重要特徵點進行置換動作。

source

技術難點

i ) 清晰度問題

影片的原始圖像受限於技術問題,清晰度都會非常有限
所以需要經過特殊處理以提高人臉清晰度,讓算法可以準確辨識。

ii ) 人臉識別問題

算法要識別出人臉,需要經過預先的處理。
但是如果角度較偏,就有可能導致算法無法識別出人臉

iii ) 人臉轉換效果問題

當我們在進行人臉轉換時,成像效果會受原始的圖像質量限制
如果要置換的圖像需要更高精準度的成像品質時就無法達成。

iv ) 圖片合成問題

目前生成出來的圖像都是一個正方形的方塊,
所以如何將這個方塊融入影片中又是一項挑戰。

v ) 影片抖動問題

目前有兩個原因會造成影片中的人臉、物品抖動:

  • 識別中斷
  • 算法導致人臉大小變化

如果影片中的人臉因為角度、光線、距離等物理因素導致識別中斷 1 毫秒,就有可能讓影片中的人臉抖動,讓觀看者感到不自然。

而算法導致的人臉大小變化,則是因為模型進行人臉置換時,時時都在進行運算,而算法的不精確就有可能造成影片中的人臉有不自然的抖動,目前也只能不斷改進算法來改進此問題。

III. 現況

Deepfake 技術目前最大的應用在情色網站上,
但令人擔憂的是,還有多則爆火的影片是
竄改美國政治人物演講的影片

Deepfake 技術首次出現在大眾眼前,
就是透過將女明星的臉置換入情色片中,之後此類事件也是曾出不窮。

今年5月川普的對手南希·佩洛希也深受其害,
他的演講影片被竄改後,正常演講都口齒不清、結巴不斷,事後不僅被政治對手作為攻擊的利器,大量被誤導的民眾至今甚至認為南希的“健康問題”,讓他不適任現在的職位。

Why would Deepfake go viral?

  1. 門檻降低
  2. 可以做到更多事

I. 門檻降低

i ) 使用門檻

Deepfake 並不算什麼新技術,上世紀就已經出現,且被電影行業廣泛使用。不過當時這項技術門檻夠高,除了好萊塢會花重金實現此技術,所以並沒有帶來什麼社會問題。

但是 AI 深度學習 (Deep Learning) 的出現,讓影片合成技術的門檻大大降低,在過去只有好萊塢可以完成的換臉特效,現在普通人都可以透過一台手機做到。

ii ) 技術門檻

上面提到使用門檻降低,現在甚至連造假成本也降低了。

最原始的 Deepfake 技術需要透過上萬張照片作為訓練素材,才能完成替換影片中的真實畫面。但是現在的造假技術甚至可以做到只憑一張照片就能自動生成畫面。

II. 更精準、更細節

Deepfake 另一大隱患就是,功能越來越強大。現在不僅僅是可以將影片中的人臉、物品置換掉,甚至可以自己編輯口型、語音。

換句話說,我們現在可以輕鬆的製造出一個其他人的臉,說出自己想說的話,而且還很難被識破。

source

Deepfake is a PROBLEM.

I. 眼見不為憑

因為 Deepfake 更容易實現,所以造成非常多衍生問題。

我們已經處在一個資訊爆炸的時代,這項技術已經達到實現普及化的可能性,假資料充斥在我們身邊已經是現在進行式。

而且這個問題並非我們過去所相像,世界會被龐大的組織壟斷資訊,只發布對自己有利的消息,剝奪我們知道真相的權利。現在人人都有能力散佈假消息,而且還是非常逼真的手段。

II. 就算知道是造假影片…

Deepfake 技術也在不斷迭代更新,雖然始終是處在追趕合成影片的角色,但是我們還是能分辨出大多合成影片。

問題是,資訊的傳播不是亡羊補牢可以解決的事情。當一則假資訊流傳出去時,我們可以即時圍堵,避免更多人接收到第一手錯誤訊息,但是我們無法知道誰已經接收到錯誤的訊息,並且告知他們他們獲得一個錯誤的資訊,所以錯誤的訊息還是會透過那些人再次傳播出去。

source

III. 解決方法

政府干預

從技術層面直接偵測出 Deepfake 影片,
美國也從法律層面下手,嚴懲沒有明確標示為 Deepfake 的造假影片。

民間自組織

Deeptrace 是一家總部位於阿姆斯特丹的創業公司,致力於 deepfake 檢測技術。

更多

除了以上的直接手段,我們也可以思考如何加上多維度的防偽機制,引入心理學家、社會學家、哲學家共同探討此問題。

source

Last

Deepfake 是一項技術創舉,它讓我們能以極低的成本創造出更多價值;
但是隨之而來的是諸多道德問題。

秉持著《技術中立原則》,我們無法控制任何強大的科技被如何利用,但是我們也不能放下警惕,任由那些以不正當手段獲取好處的人/組織肆意而為。

ref

Most Deepfakes Are Porn, and They’re Multiplying Fast

川普分享”造假”視頻打擊對手,佩洛西變老還說話結巴

深度学习与神经网络:AutoEncoder自编码

深度解密换脸应用Deepfake

How deep learning fakes videos (Deepfake) and how to detect it?

AI 的逆襲,眼⾒真的為憑嗎?

Prepare for the Deepfake Era of Web Video

Most Deepfakes Are Porn, and They’re Multiplying Fast

--

--