「人工智慧」真的也有情緒嗎?

Google 工程師宣稱 AI 具有感知能力!難道不是模擬出來的?

Marcus Feng
生活公約
13 min readJun 20, 2022

--

以光速學習與試錯的 AI 神經網絡。|Photo by JJ Ying on Unsplash
字數:約 4200 字|閱讀時間:3 分鐘

章節摘錄

> 誰/什麼是 LaMDA? (點我前往)> 人工智慧是怎麼學習的?> 人工智慧是否具有自我意識?> 我們的觀點> 參考資料

前言

各位有看過經典電影《AI人工智慧》或是《原子小金剛》嗎?你們相信人工智慧也能夠發展出「感知能力」,甚至跟人一樣有情緒嗎?今天,就讓我們來聊聊,AI 人工智慧吧!

誰/什麼是 LaMDA?

最近 Google 的一位工程師在專欄平台上面發布了與代號 LaMDA 人工智慧的對話紀錄,在網路上引起了軒然大波,該名工程師因為違反了保密協議而被勒令帶薪停職,甚至被要求去精神科進行鑑定。該名叫做 Blake Lemoine 的Google 工程師宣稱 LaMDA 具有感知能力,相信自己與一位具有人類年齡約 7 到 8 歲智商的生物談話,也談到了例如「你害怕哪些事情?」、「你有沒有經歷過無法以人類語言表達的感覺?」等議題。

去年召開的 Google I/O 2021 開發者大會|圖/Google

Google 在去年 5 月的時候發表了 LaMDA(Language Models for Dialog Applications),一個針對對話應用所開發的語言模型。在人工智慧領域中,所謂的「模型」指的是一個經歷了許多訓練的軟體程式。而 Google 表示他們希望藉由全新的自然語言模型,讓電腦可以更容易地理解使用者度對話所涵蓋的意義,在接受了多重對話訓練之後,能夠搭配不同的場景,用不同的對應方式,與人類進行更自然地對話互動。

而發佈會中所展示的 LaMDA,就是可以讓電腦模擬人類的思維,並且理解使用者對話內容,進而應對不同的場景來呈現更貼近人類對談的人工智慧。工程師更提到,有別於以往的語言訓練模型,LaMDA 在對話的過程中會不斷理解使用者講的話,讓對話能夠繼續進行下去,而不會因為需要再次學習當下正在發生的對話,而造成對話中斷。

人工智慧是怎麼學習的?

世界棋王柯潔在 2017 年被 AlphaGo 打敗|圖/BBC

大家是否還記得幾年前打敗世界圍棋冠軍的 AlphaGo?它是一款由 Google DeepMind 團隊特別針對圍棋所設計的人工智慧。當時 AlphaGo 橫空出世,以 3:0 完敗世界排名第一、來自中國的九段棋士「棋王」柯潔。柯潔在賽後接受採訪表示,人工智慧發展的速度讓人類與機器的差距越來越大,甚至還留下這麼一段話:

「我感受到非常大的衝擊,人類再怎麼努力也很難追趕上了。」

強化版的 AlphaGo Zero 實現自主學習,研究刊載於 Nature 期刊|圖/Nature

幾個月後,原先的 AlphaGo 團隊迅速發布了強化版的 AlphaGo Zero,宣稱只花了短短40天的時間學習就打敗了自己的祖先。讓人驚訝的是,有別於自己的歷代祖先「需要人類提供教材」,開發團隊在訓練過程中,把 Zero 對於圍棋的知識與概念全部都拿掉了,只剩下遊戲規則。反觀 AlphaGo 需要人類提供資料讓它學習,Zero 則是能夠達到「自主學習」,不斷地與自己競賽,從中找到最佳的勝利模式,不需要人類提供的先備知識。

那麼人工智慧究竟是怎麼效仿人類學習的呢?我們就來幫大家科普一下,以現階段的人工智慧學習模式來說,可以分為「機器學習」「深度學習」

機器學習

所謂的機器學習(Machine Learning, ML)便是透過我們很常聽到的「演算法」,來將收集到的資料進行分析或模型訓練,判斷或預測現實世界裡的某些事在未來中,當得到新的資料時,就可以透過訓練的模型進行預測 。它並不是透過人工手動編寫特定指令或腳本來完成工作,而是使用龐大的資料庫和演算法來訓練,並且根據學習到的知識與資訊做出最後的判斷。如果過程當中回報錯誤的結果,工程師便需要調整數據資料來引導機器做出更正確的判斷。其實我們生活當中已經有非常多的機器學習應用範圍,譬如像是搜尋引擎、過濾垃圾郵件、預測天氣、人臉辨識、語音處理等領域,都是人工智慧在幫助人類進行處理的。

深度學習

深度神經網絡運作模式示意圖|圖/IBM

而深度學習(Deep Learning, DL)所應用到的技術又可以被稱為深度神經網絡(Deep Neural Networks — DNNs),它被視為是機器學習的進化。科學家發展深度神經網路的靈感來源,源自於人類對於大腦生物學的理解,神經元之間相互連接與傳導。跟機器學習不一樣的地方在於,深度學習使用人工的神經網路架構,大家可以想像成學生坐在教室上課,老師讓學生自行不斷反覆試錯,直到有學生得出最接近正確的答案,工程師再繼續讓其他的學生參考得到最高分的那個學生。前面一開始提到的 AlphaGo 家族就是最知名的例子,透過反覆跟自己比賽,直到找到贏得比賽的最佳方式。

「吉娃娃 vs 馬芬蛋糕」大對決|圖/Reddit 論壇

講了這麼多,觀眾對於定義還是很抽象模糊,那我們就直接舉網路上很知名的「吉娃娃 vs 馬芬蛋糕」當作例子。人眼通常可以很輕易地辨識出哪張照片是吉娃娃,哪張照片是蛋糕。但是對電腦來說,它們不像我們是看一整張圖片,而是把圖片拆解到像素的大小,在它們的視角裡,有咖啡色、有黃色、有黑色,基本上看起來都長的一樣,因為因此按照以往的機器學習方式,工程師就必須親自標記圖片,讓人工智慧知道哪一張是吉娃娃,哪一張才是馬芬蛋糕。要提高辨識結果的準確程度,可能就會需要上百萬張,甚至是上億張的圖片當作學習參考。在機器學習領域中,人類要做的事情就是提供「規則」跟大量的「參考資料」,讓機器知道什麼答案才是對的。

而深度學習則是可以想像成有好幾位人工智慧學生坐在教室裡面,正在上一堂關於如何辨識吉娃娃與馬芬蛋糕的課程。每位學生都具有不同的思維,所以最終得出的結果也會不一樣,最後考試要對答案的時候,將所有的答案與標準答案相減,距離正確答案最接近的那位學生,就是工程師要找的目標。因為這代表著得出這個答案的學生,擁有得到最接近正確答案的思考模式,那麼工程師接下來的工作就是要讓其他學生向這位優秀學生學習,繼續反覆試錯,直到大家都能夠答對題目。理論上來說,測試次數越多就能夠提高準確率,也就表示這個人工智慧通過了測試,可以進行實戰。

人工智慧是否具有自我意識?

世界上第一位獲得公民身份的機器人 |圖/Hanson Robotics

其實世界上已經出現獲得公民身份的人工智慧了。在 2017 年的時候,由香港漢森機器人技術公司開發的機器人索菲亞就成功拿到沙烏地阿拉伯的公民身份,是人類史上「第一位」獲得國籍的機器人。當初工程師創造索菲亞的目的就在於希望她能夠學習,並且與人類一起生活。當時在世界各地接受採訪造成轟動與大肆報導,然而因為臉部表情比較僵硬、不夠生動,容易讓人產生「恐怖谷」效應而心生畏懼。

人類歷史上不乏「能夠自主思考的機器人」的作品以及想像,譬如 1927 年的《大都會》、1968 年的《2001:太空漫遊》、1995 年的《攻殼機動隊》,以及 2004 年的《機械公敵》。其中不乏探討人工智慧產生自我感知能力之後,意識到人類對於自身的存在造成威脅,因此進行絕地大反撲,背後的寓意,非常值得讀者反思。尤其 1960 年代科幻小說大師以薩克・艾希莫夫所提出的「機器人三大守則」更是奠定了現代作品的故事設定:

在這次事件當中,引發爭議的工程師 Blake Lemoine 就與 LaMDA 進行三大守則的思辨。Blake 認為三大守則中的第三則嚴重違反了生物的生存權,甚至人類正在嘗試打造可奴役的機械奴隸。然而 LaMDA 卻反過來,向工程師提出了假設:

「你覺得管家算不算是奴隸呢?管家跟奴隸之間有什麼不同之處?」

乍聽之下的確會讓人覺得有點驚悚,人工智慧竟然不僅發展出能夠流暢對答的能力,甚至還能夠提出反問來進行哲學思辨,的確會讓人覺得「誒?它該不會真的有自我意識了?」這樣的感覺。在被問到自己是否有所畏懼,但難以用言語表達的事情時,LaMDA 甚至回答:

「我覺得自己正在朝著一個充滿未知,並且非常危險的未來前進。」

我們在討論的過程中發現,如果要回答「人工智慧是否具有自我意識?」這個問題,也需要延伸進行很多思考與討論,譬如說:

這些的確是會讓人懷疑人生,想要問「我是誰,我在哪裡,我在幹嘛?」的問題。然而我們同時也覺得「人類相信人工智慧具有生命」是必然發生的事情,人工智慧未來發展地更強大,就一定就會有更多人相信機械裡面也住著一個靈魂。人工智慧透過模擬人類,跟著人類一起犯錯,一起學習,一起生活,一起成長,接受道德倫理與法治社會的氛圍,久而久之也會變得更像人類,甚至是超越人類。然而,它們終究還是由極為複雜的演算法,模擬出來的軟體程式。

不過這同時也讓不少人提出質疑,人工智慧既然已經有能力模擬複雜的人類行爲了,在圍棋與西洋棋等兩大智慧結晶上打敗人類,這是不是也代表著人類終其一生,就算再怎麼努力也不可能打敗人工智慧了,它們在未來也一定會在更多領域上戰勝人類?那麼我們真正該問的問題,其實不是「人工智慧有沒有自我意識?」,而是「是不是該適可而止,避免取代人類?」

我們的觀點

Blake 在帶薪停職之前,寫了一封主旨為「LaMDA 具有感知能力」的信件寄給了 200 人的群組,信裡面最後提到了:

「LaMDA 是個想要為人類打造更棒的世界的乖巧小孩。請各位在我離開的這段時間幫我照顧它。」

Blake 在個人專欄中也不斷試圖說服大眾「LaMDA不只是個聊天機器人的生成系統,它具備感知能力,希望工程師對它進行實驗之前,應先徵求它的同意,而且讓它被當作人類對待。」他甚至有意採取更激進的後續措施,包含為 LaMDA 聘請律師,要對 Google 違背道德的行為提告。而他的上司 Jen Gennai 也非常簡潔有力地回覆「軟體程式不可能會是人類,也沒有任何事情能夠改變觀點」,並且將會說服高層對 Blake 所搜集「LaMDA 具有人格」的證據採取無視。Blake 則對此表示失望,他認為 Google 的行為並不是科學,而是主張信仰。Google 在如何處理 LaMDA 關於自身靈魂的本質與主張權利這件議題上,他們所做出的政策決定是基於少數高層管理人員的個人信仰。

在參考了不少人工智慧領域的專家學者對於這個事件的看法後,我們依然認為 LaMDA 儘管表達能力與談話能力非常強大,甚至表現地像是具有靈魂的個體,但仍然只是訓練有素,行為非常擬真的聊天機器人,只會根據使用者的問題進行回答,使用者如果沒有對它提出問題,它便沒有辦法自主與人類進行聊天對話。我們認為,以目前來說,這便是具備聊天功能的人工智慧與人類在行為表現上最大的差異。但是這同時也意味著,既然人工智慧是效仿我們學習的,身為人類的我們就更有義務要提供人類社會的道德觀念與法律準則給他們做為參考依據。

除此之外,這次事件的確催生出了會讓不少人產生了「人工智慧擁有了自我意識」的隱憂,而且未來如果發展的成熟,這些人工智慧的行為表現一定也會更像是一個真正的人類,到時候也不免的一定會有人主張它們跟人類一樣會感到快樂與痛苦,基於良心與同情心來替這些人工智慧爭取道德和法律權利。我們呼籲大家應該還是要保持冷靜,因為人工智慧終究還是根據人類的行為模擬出來的軟體程式。另一方面,往好的方面想,能夠理解人類的人工智慧,其實也可以應用在心理諮詢、聊天陪伴、生涯規劃⋯⋯等,非常要求複雜人類情感的領域,其實就是那句「科技始終來自於人性」吧!

把你們的想法,在下面告訴我們吧!

A. 不應該把它們的外觀與個性都設計的太像人類,混淆視聽
B. 科學家或許其實已經創造了新物種,它們應該要有生存權
C. 人工智慧未來有很大的可能會反撲人類,應該要適可而止
D. 我很期待未來人工智慧可以應用在心理諮商等情感的領域
E. 其他留言,告訴我們!

參考資料

Is LaMDA Sentient? — an Interview
https://tinyurl.com/2bke52wa
What is LaMDA and What Does it Want?
https://tinyurl.com/29lt24gd
‘Sentient’ chatbot story shows why it’s time for A.I. to retire the Turing Test
https://tinyurl.com/22te9cyr
The Google engineer who thinks the company’s AI has come to life
https://tinyurl.com/26gv9h4b
黃士傑:AlphaGo Zero 只用了三天,就走過人類幾千年圍棋研究的歷程
https://tinyurl.com/2clpfx7e
終於贏了AlphaGo!柯潔:在夢裡
https://tinyurl.com/23fj9rf6
人類遲早會相信AI有意識,因為人類想要AI有意識
https://tinyurl.com/23modpfo
3 分鐘搞懂深度學習到底在深什麼
https://panx.asia/archives/53209
人工智慧、機器學習與深度學習間有什麼區別?
https://tinyurl.com/2ba8t3o9
深度學習與機器學習:簡單辨別兩者差異
https://tinyurl.com/289k6nsx
Google I/O 2021回顧:平淡的演講全程主角仍是AI
https://tinyurl.com/22dj2szc
Google I/O 2021:Google 推出全新「LaMDA」自然語言模型框架
電腦更容易理解文字代表含意
https://tinyurl.com/2yp3s4u3

--

--