我們能信任人工智慧了嗎? Why Don’t We Trust Machines when We Obviously Should?

為什麼人類必須留在自動化的迴圈中?我們該如何妥善運用「以人為本的」人工智慧演算法、甚至建立人與機器的結盟,創造合作更緊密的人機關係,為人類創造更好的未來?

Bastiane Huang
UXeastmeetswest
7 min readFeb 11, 2020

--

Photo by Katarzyna Pe on Unsplash

Humans are inscrutable. Infinitely unpredictable. This is what makes them dangerous.

人類是難以捉摸、而且完全不可預測的:這正是他們的危險之處。

— Daniel H. Wilson

在先前的文章中,我談到AI(人工智慧)帶來人機關係的改變,並且提出了以下的問題:

誰應該為自動駕駛車做出最終決定?演算法?安全駕駛?或是乘客?人類應該總是能夠推翻機器人的決定嗎?如果你只有一瞬間的反應時間了呢?如果你的親人在車裡,答案會改變嗎?

換個場景,如果你明天要上法庭被審判,你會選擇不帶情感判斷、但卻公正不倚的演算法,還是一個可能帶有偏見或錯誤的人類法官,來決定你得到的判決結果?

即使知道人類法官可能會犯更多的錯誤,罪犯仍然更喜歡人,而不是演算法;決策心理學教授曼迪普.達米說,他們想要這種人情味。

人們對於機器的不信任,還有更多的例子:例如,雖然研究結果表示,自動駕駛汽車更為安全,但近一半的美國人寧願不使用自動駕駛汽車

科學家正在積極尋找方法,來解決AI的透明度和公平性問題;但其實:

人類大腦甚至比AI演算法更缺乏透明度和可預測性

然而,卻很少有人關心這個事實。為什麼?

我們為什麼不信任機器?

華頓商學院教授卡蒂克.霍薩納加爾認為,優越感偏差(better than average effect)是原因之一:我們雖然或許知道,自動駕駛汽車會比一般人駕駛更安全,但我們同時也認為,自己比一般人更善於駕駛。

在一項研究中,當要求參與者在自己、其他人、以及演算法之間做出選擇時,研究人員發現,人類確實更信任演算法,甚至勝過信任其他人。而我們似乎也對自己的錯誤更寬容;當風險很高時,我們不太可能讓機器為我們做決定。

機器確實會犯錯,而且可能永遠不會完美無瑕;無論自動駕駛汽車行駛了多少里程、累積了多少資料,總會有例外情況發生。但是,我們是不是問錯問題了?

為什麼我們必須在人和機器之間做出選擇?

機器會犯錯,我們也會犯錯。為什麼我們不能共同努力,讓集體決策更準確,讓偏見更少?我們是否能幫忙發現演算法的弱點,也讓機器幫忙找到我們的盲點?

人和演算法機器的混合團隊能否帶來更多樣化、更理想的解決方案,讓世界變得更美好?

更好的機器教學:以人為本的AI演算法設計Human-Centered AI

以使用者為中心的設計(user-centered design),可以提高產品的可用性;同樣的,如果我們要確保AI讓我們的生活更好,而不是更糟,在設計演算法時就應該把人放在第一位。

將人類融入ML(機器學習)產品的開發過程中。這種方法被稱為「以人為中心的人工智慧」(Human-Centered Artificial Intelligence);換言之,與其開發科學家所能想到的最酷技術,還不如關注真正有利於人類的可用性。

最簡單的可用性判斷原則是:評估AI是否可用於自動化,以代替人類執行枯燥或危險的任務、或幫助人類將其他有趣的工作執行得更好。

麻省理工學院的科學家萊克斯.弗瑞德曼建議,可以將人類深度融入ML的模型訓練和實際操作中。透過引進人工監督,我們可以更確保AI的安全、公平、以及可解釋性。

加州大學伯克利分校電腦科學教授斯圖爾特.羅素則認為,我們應該「讓機器具有目標」;他指出,現在的機器學習模型對目標還沒有完善的認識。

這就帶出了我的下一點:我們需要更審慎定義機器的目標函數(objective function),甚至重新檢視整體人類社會的目標函數。

機器與社會更好的目標函數

ML模型是由獎勵函數(也稱為「目標函數」、或是「損失函數」)來決定的。目標函數能定義問題、也是決定ML模型預測是否正確的數學公式。

換句話說,目標函數定義了奬勵機制、成功或失敗。我們使用目標函數,來強化我們想要達成的行為;例如成功走出迷宮、或是盡可能地減少錯誤。

但是,定義目標函數並不是一項簡單而簡單的任務。正如我在〈給產品經理的AI開發指南#1〉一文提到的:模型的準確性通常並不是最好的衡量標準,還必須考慮精確性和召回權衡(recall trade-off)。

此外,我們還要確定除了主要顧客之外,所有使用者對演算法都有正面的體驗。

以Uber優步等共乘軟體公司為例,雖然乘客滿意度很重要,但駕駛員對於平台的發展也一樣重要。要為所有使用者都創造出良好體驗,會是一項艱困挑戰,尤其在使用者之間存在利益衝突時更加重要。

然而,目標函數也可能意外對其他人產生影響。我們如何考慮ML模型的潛在負面影響、並盡量減輕副作用?我們如何預見、追蹤目標函數隨著時間推移所帶來的影響?

更根本的問題是,我們如何確保企業在設計ML產品時,一直能維持從使用者、利益相關者、以及整個社會的利益出發?在目前資本市場的獎勵機制下,企業是否能夠不只考量獲利,而設計出對人類有益的AI或ML產品?

舉例來說,如果留住使用者可以增加公司的利潤,公司是否會關心他們花太多時間上網造成的負面影響?在自動化的過程中,他們是否會分配足夠的資源,來幫助勞工成功轉換到下一個角色?

如果公司的唯一目標是將股東價值最大化,他們是否會嘗試減輕ML演算法對員工和社會的潛在負面影響?

結語

輸給IBM的「深藍」(Deep Blue)超級電腦,並沒有讓棋手Garry Kasparov陷入絕望。相反的,他開始接受「進階西洋棋「的概念,讓人與機器組隊來進行對戰與練習,反而讓西洋棋的水準比以往只有「人與人練習」更高。

同時,UC Berkley大學教授Ken Goldberg也以頂尖圍棋選手與Deepmind的AlphaGo電腦比賽為例,宣導由機器與人類結成聯盟。

我們不應該將人機關係視為「互相取代的零和遊戲」,而應該轉變我們的心態,思考如何與機器合作、將餅做大。現在正是個好機會,讓我們深入思考人類究竟擅長什麼、真正想做什麼,並在將來善用機器演算法,為每個人創造更好的未來。

想看更多文章嗎?點這裡追蹤我!

Bastiane Huang 畢業於哈佛商學院,目前在舊金山擔任 AI/Robotics新創公司產品經理,專注於開發機器學習軟體,用於機器人視覺和控制。她擁有近10年產品及市場開發管理經驗,並在美國《機器人商業評論》及《哈佛商業評論》發表文章及個案研究。如果你也對Robotics 2.0(AI-Enabled Robotics)、產品管理、Future of Work有興趣,請點這裡追蹤她

--

--