【科技】AI 為什麼讓我焦慮?

Noah Yeh
前進烏托邦
Published in
12 min readMar 31, 2023

我們如何定義進步?

Midjourney of course, duh

寫作和分享這篇文章都讓我遲疑了一陣子,先不說不多順著潮流在前端累積流量(我其實也沒有這個能力跟敏感度),還總是講些逆流的話,最後大概多半會擱淺在一些資源匱乏的泥沼上。總之希望到時還有些朋友一起吃飯喝酒,笑看自己過去的固執。

認識我的人應該對我從小橫衝直撞的個性不陌生,對於新科技我總是比同學們多了一點天真與熱情,對於新冒險也總是多一些過於樂觀的想像。我是科技發展的支持者,也絕對不是盧德教派的信奉者,但這次我發現自己對 AI 這波潮流總是焦慮高於期望,朋友也好奇的問我為什麼這麼焦慮,這篇文就是為了釐清自己的焦慮而寫的,自然也沒找 ChatGPT 幫忙。幾個月內衝到一億用戶的產品在科技歷史上絕無僅有,AI 帶來的衝擊太快、太廣、太深,有機會遠遠超過我們的韌性。

十年前 Marc Andreessen 與 Peter Thiel 的世紀大辯論爭辯著 104 個字與飛天車的意義,也討論著科技進展到底是加速還是停滯,Thiel 回顧著宇宙探索時代科技進展的強烈時代感,Andreessen 則追捧推特讓人人變成全球廣播平台,其實他們的差異不過就是對人類社會進展的評量方式不同罷了。我想 Peter Thiel 看著 AI 應該不再認為科技發展停滯了,但問題仍然存在,如何衡量人類社會的進展?

這篇文章不考慮強人工智慧,那討論可能更接近外交(外星?)關係的建立。

Also 還是得聲明,我不反對 AI,也不打算躺平,積極學習仍然是我的意圖,但我的確希望 AI 的發展可以走在對人類風險更小的路上,並啟動對應公共財的發展。

無法預測的未來

Nick Bostrom 是牛津大學的科技哲學教授,他在 2019 年發表過一篇論文叫The Vulnerable World Hypothesis(脆弱世界假設),這我在之前的文章也有介紹過。

簡單說 Nick Bostrom 假設每項科技都是大甕裡的球,人類慢慢從這些甕裡將球取出,而拿出來的球是不能再放回去的。這個甕裡的球有時取出來是白的,有時是灰的,白球代表對人類只有益處的科技,灰球代表有好有壞,火藥可能就是個很好的例子,但人類從來沒有抽出過黑球,黑球的簡單範例是『簡易核武』,如果我們能像使用 ChatGPT 一樣拼裝核武,世界會變得什麼樣?

脆弱世界假設的重點是告訴我們不是所有科技進展都永遠對人類有益的,黑球科技可能讓社會更加脆弱,監管更加嚴格,人道更加難以實踐。

人工智慧是黑球科技嗎?從現在看來不是,但如果你聽過 Sam Altman 的 ABC 訪談的話,你會知道 OpenAI 對於人工智慧接下來會發展出的能力與功能沒有太多的掌握,套一句 Sam Altman 的話 ”Well, we’ll adapt it.” ,這些大型語言模型不斷地、自動地、快速且大量地從甕裡抽出新球,這些科技也指數型的在遠離我們的理解範圍,這是讓我焦慮的原因之一。

過去的科技開發與人工智慧的不同之處是過去我們『相對』多少知道自己可能會打造出什麼東西,比起從一個不透明的甕裡抽球,我們更像是在夾娃娃機,我們看著那些吸引人的彌豆子玩偶,一次又一次地用鬆弛的鐵夾將它推向洞口,最後在機緣巧合下勾到彌豆子的標籤,因成功掉入洞口而歡聲雷動。

但這並不是人工智慧的邏輯,人工智慧更像是一個黑箱,人類無法理解我們為什麼得到某個特定的結果,也難以指揮它一定得以什麼形式生長,就像在開放的環境下撫養小孩,無法完全避免他們被壞朋友影響一樣。

如果這次抽到黑球,那該如何?

已知的動盪

李開復老師協同前谷歌同事在幾年前寫了一本書叫 AI 2041,星雲獎得主陳楸帆總共寫了十則短篇故事,李開復老師則為每篇故事註解著科技及社會面的影響,這對了我的胃口。其中有好幾篇值得讀的故事,讓我印象較為深刻其中一個故事的是第八章的『職業救星』,當然就是在講述 AI 取代人們工作的情況。

故事描述當人們的工作被取代時,他們就會去諮詢職涯再造師,再造師們會介紹他們認為轉型最佳的工作方向,從一開始大家認為只有低階基礎的工作會被取代,像是收銀員、卡車司機、縫紉女工、電話客服、保險業務、放射科醫生、初級翻譯等。

『那這次… 你又要把我再造到哪裡呢?』

『根據分析結果… 市立動物園還有一個護理員的職位空缺,所以看起來非常匹配。』

『所以,幸運的我得到了一個每天給大象鏟屎的機會,這次能幹多久?三年?一年?九個月?』

『每個父母都希望自己成為孩子眼中的英雄,可事實卻是,我們像是這個時代的蟑螂,從一個角落被趕到另一個角落,靠一些殘渣碎屑過活。你能忍受你的孩子用這樣的眼光看你嗎?』

這是李開復老師書裡的對話,讓人憂心的是 AI 對人類工作的介入雖然是循序漸進的,但最終的結果卻非常明確 — AI 將全面取代人類員工,這也是李開復老師的話。

人工智慧跟過去的科技進展不同,在工業革命時代如果學會了工廠的技能,便大概率可以安然度過下個十年,但在人工智慧時代 AI 明天就能學會我們要花好幾年才能學會的事,而人類又得去找下個安身的角落。

雖然說人類也許還有像是創造力、同理心與靈活性這樣的相對優勢,但像是創業家、公關、社工、養老院看護、物理治療師、馴狗師這些工作,可以被多少人分擔呢?也許我們寫出的故事還是比較動人,但當這些故事被淹沒在數千篇 ChatGPT 寫出的故事之間時,伯樂可能也只能大海撈針。

權力集中於新世代 Uncle Sam

Sam Altman 也說了,他比較擔心也似乎很容易成真的是一個充滿假消息的世界,當我們所有的貼文、文章及科幻小說都是用 ChatGPT 寫的時候,我們如何得知哪些消息為真,哪些資訊為假?

寶博士前幾週在跟我聊天的時候,講到一個假設,我覺得非常可能,但同時也挺嚇人。當所有消息都無法辨別真假時,什麼消息會更加突出?人們會傾向相信什麼樣的消息?寶博給的答案是有抵押金錢的消息會更被信任,因為至少消息提供者願意花錢,有成本。這個假設在 ChatGPT 不需要有任何進步的情況下已經成立,搜尋廣告最上方的版位便是如此,Google 正常搜尋結果逐漸變得不可信任(因為創造假消息網站的成本開始趨近於零),真相資本主義向世人問好,我們要如何學習?如何理解?如何溝通?我們如果不希望資本決定真相為何,那是否該請政府介入管制,那問題又來了,由政府所控制的真相會比較好嗎?

『有緊急停止開關嗎?有沒有關閉整個系統的方法?』

『有的,實際上發生的情況就像任何工程師都可以說:我們現在要停用這個版本,或者我們要部署這個模型的新版本。』

『 一個人?』

『 是的。』

部份省略……..

『但您提出了一個重要的觀點,即現在控制機器的人類也擁有巨大的權力,我們非常擔心威權政府開發這個技術,普京本人已經說過,誰贏得這場人工智慧競賽,誰就是人類的掌控者。』

Sorry Sam, we’re not talking about Putin, we’re talking about you.

現在世界上正在贏得這場人工智慧競賽的是 OpenAI,也許像普丁說的,Altman 某種程度上成了人類未來的可能掌控者。OpenAI 啟動後不斷快速地在推出新功能,包括 API 與 Plugin,ChatGPT 成為下一代最廣泛使用的人機介面一點也不難想像,雖然 Google 與其他公司努力追趕,但在 AI 的世界中,網路效應的優勢也是指數型放大的,OpenAI 擁有了全世界最多的資料量去訓練它的下一個模型,API 與 Plugin 讓所有開發者蜂擁而至,提供多元且遍佈世界角落的行為資料,追隨在後的企業即使本來差距不大,要真正關起這個逐日擴大的鴻溝可能也不容易。

我們來想像另外一種可能性。

https://www.theverge.com/2023/3/13/23638823/microsoft-ethics-society-team-responsible-ai-layoffs

微軟在 2023/3/14 時裁撤了一萬名員工,包括負責人工智慧道德的團隊。
『現任和前任員工表示,此舉使得微軟缺乏一個專門團隊來確保其人工智慧原則與產品設計密切相關,而此時微軟正在帶領潮流,使人工智慧工具能夠普及化。』

不落地的原則有意義嗎?微軟為什麼這麼做呢?文章說微軟希望可以在對手前率先推出各類 AI 產品,無論如何可以推論的是在市場和財務的壓力下,為了超 G 趕 A,維持 AI 的道德標準可能不是微軟真正的第一優先。

我們能期望 Sam Altman 永遠頂住競爭壓力嗎?內部可能取代他意見的同事呢?想要背水一戰挽回劣勢的 Google 和其他公司又會如何在這個不成功便成仁的競爭環境中表現呢?

目前所有人工智慧公司的道德團隊或委員會都是企業的內部團隊,若是意見與老闆不一致,多半會面臨走人的命運(在過去幾年早已發生多次)。政府或是其他外部監管單位過個這麼多年才明確加密貨幣的各種法條,針對人工智慧一日千里的發展,我們還能做些什麼?確認人工智慧的發展能走在與人類動機對齊的道路上呢?

當 AI 的掌控者動機與社會不完全符合時,誰來牽制與保護?

AI 帶來的進展到底怎麼衡量?

https://worldhappiness.report/ed/2023/

今天我們不談我那些快樂哲學理論,但我們讀一下前幾天剛出爐的 2023 世界快樂報告,至少有多年的科學根據,看看是否能看出一些 AI 影響下的端倪。

報告中有一些有趣的觀察,譬如

  • COVID 前後人們的幸福度並沒有太大差異,這代表幸福感的彈性很高,並不直接受環境影響。
  • 政府的有效性對人民生活的幸福感有極大影響。
  • 利他讓人幸福,幸福的人也更容易利他,形成正面循環。

上述跟 AI 沒有什麼太大的關係,但最讓人覺得好奇的當然是幸福到底是從哪些方面來評量的?世界快樂報告衡量的變數有六個

  • 個人收入及社會整體的經濟情況
  • 社交關係支持,在碰到困難時是否有人可以依賴
  • 對健康人生的期望,心理及生理都佔了很重要的因素
  • 做人生選擇的自由,包括各項不同的人權
  • 慷慨捐款,捐款越多的國家似乎幸福感越高
  • 政府貪污的情況也直接影響幸福感

在假想的未來中,AI 會怎麼影響這六個變數?

從上述描述中 AI 大概對人類社會在個人及整體的經濟情況會帶來劇烈且持續的變動。假訊息(或由資本控制的真相)對於社交關係大概沒有什麼幫助。生理健康也許因為 AI 的進展而改善,但無法工作找不到生存意義的人們又會如何想?人生的選擇如果以工作來看,也許變少,或也許會出現些過去不曾存在的工作,這些對心理健康的影響可能十分巨大。政府監管與 AI 創造的權力中心多半會大力對抗。我想我們應該可以安全地說,AI 不是為了增進世界快樂報告列出的這些變數而開發的。

除了社會的變化外

Geoffrey Hinton 被人稱作人工智慧之父,在訪談中他擔心的不只是上述社會問題,試想普丁若打造了自主 AI 武器,其他國家政府即使簽訂了條約互相規範 AI 武器的開發,大概也不可能真的遵守。

自主 AI 武器的問題是這樣的,如果你想要創造一個有效的自主士兵,你需要給它創建子目標的能力,換句話說,它必須認識到類似「我想殺的那個人在那邊」這件事,但要怎麼到達那邊呢?它必須意識到哪條路讓它可以更快地到達目標地點,因此它有了到達那條路的子目標。

一旦你給它創建子目標的能力,它就會變得更有效率,所以像普京這樣的人會想要擁有這樣的機器人,但是一旦它有了創建子目標的能力,你就有了所謂的對齊問題,也就是如何確保它不會創建出對人類或對你自己有害的子目標的問題。如果這些系統是由軍方開發的,那麼把一些規則寫進程式裡,比如「永遠不要傷害人」,這是不現實的,它們就是被設計來攻擊人類的。最好的辦法可能是類似日內瓦公約的東西,但這將非常困難。如果有足夠的公眾抗議,我可以想象拜登政府會采取這樣的措施,但普京呢?

公開信的 1859 個簽名

無論 Elon Musk 發起的 Pause Giant AI Experiments: An Open Letter 是否具有任何影響力(從目前不到兩千人的簽名看來,大概沒有引起社會共鳴),AI 的發展也不會停滯,OpenAI 不動,Google 也會動,Google 不動,無數的新創與個人也會動。

不管是假相氾濫、工作動盪、還是 AI 武器,這些無止盡且沒有答案的社會問題似乎不斷從與 ChatGPT 的互動中冒出,這大概是我焦慮的主要原因。

創新應該負責

前一陣子琍瑩律師陪我去 Appworks 找 Jamie 聊天,Jamie 是個好朋友,也是個好人、好老師。他問我覺得 AI 應該要開源公益的好,還是私人營利的好?我說我理解的還不夠多,沒辦法好好回答這個問題,現在跟大家一樣埋頭苦讀了一陣子,我還是沒有答案,開源無法(為 OpenAI)啟動 AI 的真正潛力,私人營利的 AI 創造了過度集中的權力,如果近期還有機會跟 Jamie 聊聊天,我會想問問他認為什麼才算得上人類社會的真正進展,以及在他的標準下,AI 如何幫得上忙?

我們不僅需要與人類動機對齊的人工智慧,我們可能更需要與人類動機對齊的資本制度,亞當斯密對資本主義動態平衡的想像在 AI 的動盪下容易崩潰。也不難想像政府與政府間、資本與資本間的 AI 彼此割喉競爭直到失控為止。again 我沒有答案,但如果我們可以重新設計資本主義的機制讓更多人來為公共利益貢獻(包括 AI Safety,包括氣候變遷),那至少我們可以聚集群眾的智慧與力量進行對抗,即使打不贏,我們至少為彼此(而不是自己)努力過。

可參考文章:

--

--

Noah Yeh
前進烏托邦

Noah 在去中心化身份及回溯性資金研究等領域設定現實又充滿想像力的未來競爭策略。第一位進入美國帕森設計學院全球高管碩士就讀的台灣人,同時也是 NFL 超級盃主播與美式足球運動員。