眼見不為憑 — — AI 做出的虛擬人像

AI Justka
AI 講講話
Published in
Aug 5, 2022
Photo by Bas Uterwijk on Instagram

各式各樣的網站、廣告公司、交友軟體都有可能用到人像照片,需要支付費用邀請模特兒拍攝,還得遵守與模特兒簽訂的使用規範,一不小心就有可能違反肖像權。然而, 隨著 AI 的發展,電腦已經可以繪製出虛擬的人像。

由 AI 製成非實際存在的人物圖像

上方4張人物圖像,看起來像真人,但其實全都是由 AI 製作而成。

Icons8 公司花了三年時間,邀請 69 位模特兒拍了將近三萬張照片來訓練 AI。至今為止,AI 已經產出無數張如同真實人像,但實際上是虛擬人物的照片,而此 AI 系統還在不斷進步當中。

另一方面,韓國的 MBN 電視台,不只是創造出虛擬人物的照片,更是模擬出會講話、一舉一動如真人一般的虛擬主播人物。AI 主播讓眾人大開眼界,也讓人不禁懷疑,AI 是不是將會慢慢取代掉各個職業的位置?

由韓國 MBN 電視台創造出的虛擬 AI 主播

深偽技術(Deepfake)

深偽技術(Deepfake)是源自於深度學習的英文「Deep Learning」和偽造「fake」組合而成。是指應用 AI 技術,合成人的圖像、影片,甚至還有聲音。

網路上曾經流傳一段韓國女團 TWICE 周子瑜的影片,讓不少人感到驚訝,子瑜什麼時候出演韓劇了?不過這其實不是子瑜本人出演,是網友運用深偽技術所合成的影片,將韓劇中女主角的臉換成了子瑜的臉,任何一個表情或動作都讓人看不出一點破綻。

https://www.youtube.com/watch?v=CYD4_if3Psw

深偽技術的原理,首先要大量搜集某個人物的照片,讓 AI 找出該人物的臉部特徵。接著讓 AI 利用這些臉部特徵,重現出該人物的臉。

學習人物的臉並重現

而在製作影片時,把原始影片人物的數據換置成 AI 重現出新人物的臉,如此一來就能將臉部變成新人物的偽造影片。

利用深偽技術,將舊人物換置成新人物的臉

AI 的技術雖然高超,但反而使人類濫用了深偽技術,在大家不知情的情況下,很有可能成為假訊息、假新聞,或甚至於影響選戰與輿情的工具。

我們的法律該如何跟上技術的進步?如何解決其中著作權與倫理問題?這些都是需要討論的重要議題。過去在網路上流行的一句話 — — 「有圖有真相」,現今反而變成有影片也不見得是真相的網路世界。因此,在科技試圖蒙蔽我們雙眼的同時,我們更需要培養判別是非的能力。

--

--