天下沒有白吃的午餐:不可不知 AI 的一體兩面
2018 年 5 月,Sundar Pichai 在 Google I/O 開發者大會上發布了 Google Duplex,這項服務已通過圖靈測試,可運用 AI 模擬真人的聲音,幫助人們進行電話預約業務。 Pichai 的演示顯示,Google Duplex 不但可以理解人類的語言,甚至還能夠給出正確的回應。
什麼是圖靈測試?
提到圖靈測試,不得不提到的重要人物為艾倫·圖靈 ( Alan Mathison Turing )。1949 年的時候,研究人工智慧,提出了著名的「圖靈測試」,強調機器能透過模仿學習產生思考。如果一台機器能夠與人類展開對話(透過電傳設備),而不被辨別出其機器身份,那麼這台機器就具有智能。
圖靈稱為「模仿遊戲」的測試其實很簡單:提問者會事先寫好問題,分別對身處不同房間的人與機器提問,再根據他們的回答辨認哪個房間裡的答題者是人,而不是機器。若機器能在對話中展現「人性」,常常可以以假亂真。
關於 Google Duplex
2018 年 11 月,Sundar Pichai 宣布, Google Duplex 已提供給美國一些城市的公共用戶使用。Google Duplex 在進行餐廳、美髮院語音預約時,不僅語調會抑揚頓挫,在使用問句時句尾也會語氣上揚,甚至還有遲疑聲「Mmmm…」,彷彿就像在和真人對話一般,面對不同的回答也給予相對應的回應。雖然這項技術為我們減少與他人溝通的成本,可以在對方不知道是機器人的情況下,成功完成對話,但是否也表示人工智慧在未來能夠完全偽裝成人類,製造出虛假的訊息呢?另外,對話內容是否會被 Duplex 記錄下來,也造成了隱私的疑慮。
針對上述這些質疑, Google 也將繼續進行安全修正,如:AI 語音系統撥打電話時,來電顯示會標誌為「來自 Google 的通話」,同時告訴接聽者,它正在進行錄音。若接聽者不想錄音,Google Assistant 會轉移到未錄音的專線。
人工智慧衍生之倫理問題
而隨之而來的倫理問題爭議為:許多資料的提供涉及個人隱私的資安問題。Google 是否只將這些資料用於技術開發,我們無法肯定。 AI 可運用的層面,不僅有上述所提到的 Google Duplex ,還有像是人臉識別的圖像處理、股市分析的時間序列等運用。
接下來,請各位閱覽以下新聞標題和影片:
〈影/ 歐巴馬嗆聲川普:蠢豬!〉前美國總統歐巴馬(Barack Obama)的致詞內容提到「President Trump is a total and complete dipshit.」(2018)
上述的新聞畫面其實是透過 Deepfake (「deep learning」(深度學習)和「fake」(偽造)的混成詞。專指基於人工智慧的人體圖像合成技術的應用。)所製作的虛假影像,也就是說,只要有當事人的影像資料,AI 技術就可以製造出虛假的訊息。
看到這邊的你,或許會開始質疑「有圖有真相」的說法。但是,頻繁使用社群媒體的我們,一天所閱讀的訊息量,可能動輒超過上百則,我們真的還有辦法停下來仔細思考、辨別真偽嗎?AI 技術將會帶給生活過去難以想像的便利,但隨之而來的問題與挑戰,我們是否來得及應付?
以下將列出兩個問題給大家思考:
隱私和安全
科技的進步也意味著,許多 AI 技術的門檻大幅降低,當然也就包括上述的 Google Duplex 和 Deepfake。無論是哪一種技術,在提供方便性的同時,也不斷地收集用戶的數據資料,使我們隨時會面臨到個人資訊被外洩和盜用的風險。當我們幾乎不花一毛錢,便能享受到如此便利的搜尋引擎和社群媒體時,可曾想過「天下沒有白吃的午餐」,其中潛藏的代價,可能比金錢更加沉重。
比如上述的〈影/ 歐巴馬嗆聲川普:蠢豬!〉,公眾人物或許可以因被大眾所熟知,而不會讓人輕易相信假訊息的內容,但身為普羅大眾的我們,卻可能難以倖免。像是印度記者 Rana Ayyub 因揭露官員的黑幕,而遭人以 Deepfake 製作假色情影片並公開散播,使得這位記者不斷收到騷擾訊息和親朋好友的異樣眼光,目前也沒有相關法律規範可以控管,保護當事人權益。
媒體識讀能力
隨著網際網路的傳播速度越快,我們可以在第一時間接收到來自世界各地的最新資訊,而且訊息量亦是翻倍成長,但不是所有知識或報導在網路流傳上便是正確無誤,像是 2018 年的衛生紙搶購亂象,就是因媒體的造謠報導,及社群間的快速散播,使得民眾在訊息未經查核前,相信報導內容屬實,造成一窩蜂的搶購現象。應付如此龐大的資訊量,需要更深層且快速的閱讀理解能力,但我們的閱讀能力並未隨之成長,反而習慣被破碎、單一、重複、刺激的訊息所豢養著,失去了閱讀完整訊息的耐心。
當然,上述問題都已經是老生常談,很多人可能會想「那些報導都是危言聳聽啦,哪有那麼嚴重。」事實上,AI 人工智慧早已充斥著我們的生活,細雨潤無聲地層層影響著我們的意念、想法、行為乃至生活方式,甚至主宰著社會的發展。面對如此隱密而龐大的改變,我們更需要的是獨立思考與辨別是非的能力,否則,我們終將被物質文明所牽制,離所謂「真實」越來越遙遠。
結論
本文從介紹 Google Duplex 到討論技術隱藏之風險,並進一步討論 AI 提供便利性的同時亦帶來哪些危機與挑戰。在文章之最後,我們想藉此討論面對這樣的挑戰,大學生的你會受到什麼衝擊或應注意哪些事項呢 ?
AI 當紅之時代,似乎資工、電機領域背景之學生工資亦水漲船高,益發強化「文組無用論」之憂慮與討論。在這樣的世代交接之際,或許社會大量需求的專長與人才有所轉變,然而這樣的轉變並非意味著文組將全軍覆沒,不再有用武之地。相反地,正因 AI 帶來劇烈的社會變遷,引發許多未曾面臨、亟待處理的社會問題與需求,如上述所提及濫用 Deepfake 製作假色情影片並傳播的行為目前尚未有法律可以規範,社會正急迫需要法律社科素養之人才展現所學、提供可行之解方。
另外如汽車製造商 Nissan 亦招攬人類學博士,主導公司的人機互動研究,協助自動駕駛汽車得以處理人類複雜的符號性行動與溝通模式,而如缺乏社會科學領域之能力,則開發之汽車則可能未能提供良好的使用者體驗。
因此就本文觀點,AI 世代下之因應之道絕非「投筆從資」,而是須更為細緻地觀察 AI 將對社會造成之轉變或帶來之危機,進而預先培養、探索相關領域之知識與能力。另一方面,科技日新月異,我們將面臨無數過往未曾出現之問題,應著重於訓練解決陌生問題之思維,以不變應萬變。