【讀書筆記】《Hello World 打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》 跟新世界說Hello

Tetsuo
隨筆手札
Published in
6 min readFeb 25, 2020
  • 作者: 漢娜‧弗萊
  • 原文作者: Hannah Fry
  • 譯者: 林志懋
  • 出版社:臉譜
  • 出版日期:2019/05/04

“Hello World”,如果有學習過程式語言,通常執行的第一個程式都是在電腦上顯示這條字串。彷彿在告知你即將進入一個新的程式領域,所以好好跟這個新世界打招呼吧!

而隨著時代演進,AI人工智慧、機器學習、類神經網路等等,這些看似時髦的名詞相繼出現,實際都是依靠不同的演算法來達成的。《打開演算法黑箱》這本書,主要就是讓你跟演算法世界say Hello的一本書(Hello world也是本書英文書名)。它沒有講述到甚麼程式語法,也沒有跟你講到很困難的數學邏輯,用很淺顯易懂的方式跟你說明目前許多AI是如何運作的,再搭配在司法、醫療、自駕車等例子,與你說明這些演算法可以做到什麼事,但同時也存在著一些隱憂。

演算法可幫助我們的事

首先我們先來講述演算法有什麼樣的優點,首先機器最大的優勢就是可以快速地計算,擁有高度的計算能力。只是相對的,它的缺點就是缺乏理解能力,許多人類做起來很簡單的事情,機器可能需要大量的數據給他學習它才能學會,如辨認什麼是「車子」。

所以在這樣的情況下,目前其實我們做不出一個像多啦A夢那樣完全像人類的機器人,頂多只能作出在特定領域中可以幫助人類的機器人,即便如此,這樣其實就可以做到很多意想不到的事。

例如透過演算法,公司可以根據顧客的資料來發現顧客的喜好,寄送不同客製化的廣告;在司法上,可以利用大數據來分析一個犯人的再犯率或者是違反假釋規則的機率,供法官作判斷;在醫療上,可以透過機器快速分析腫瘤是否為惡性,加速醫生的判斷。也能用來預測較高機率發生犯罪的地點,抑或是讓你不用開車享受乘車的樂趣等等,甚至是通過模仿巴哈的樂曲而譜出類似巴哈的音樂。

目前演算法的極限

只是當然,不是所有的東西都只要有數據,就有辦法通過AI演算出來。像是預測一部電影會不會賣座,或者是一首歌會不會流行,這種無法透過數字找出關聯性的領域,即使嘗試正確率大概也只比你隨便猜的正確率好一點點。所以作者提出了一個很有趣的方法,來辦別出「垃圾演算法」,可以嘗試把一些時髦的單字像「機器學習」、「AI」等替換成「魔法」,例如:「我用AI來預測未來」轉換成「我用魔法來預測未來」。如果文法上說得通沒有任何涵義不見了,那它是垃圾的機率就蠻高的

機器人也會犯錯

只是當我們把權力全部交給機器,盲目地相信它,也會產生許多的問題。如果有學過統計,我們都知道推論統計裡有所謂的Type I error與Type II error也就是書中說的偽陽性與偽陰性。雖然書中是以星際大戰做比喻,但怕不懂,換做一個比較生活化的比喻的話。假如你驗孕,明明懷孕了卻沒被驗出就是偽陽性(Type I error),明明沒懷孕但驗出有懷孕那就是偽陰性(Type II error)。

而所謂的演算法,其實就是以統計學的原理出發去進行的,所以理論上也不會有不可能出錯的AI。尤其是有些尚未臻於成熟的,正確率可能也只有75%、80%,這正確率其實已經很高了,但其實1/4或1/5的錯誤率其實發生的機率也還是很高的(用抽卡去想,就算只有1/10的機率跳下SSR也算非常高了)。只是當然,如果只是腫瘤誤診之類的只要先把偽陽性的機率降低,通過醫生雙重檢查就可以解決問題。但如果是在開車時辨識錯誤或者是在用臉部面識罪犯時錯誤,那後果可能就是一個人的性命消逝或一個人的自由會被剝奪。而且,就算是最厲害的工程師,也無法理解在那套演算法公式裡,機器是如何理解的這個世界,所以當機器學習錯誤時,要發掘問題出來也十分困難。

誠如書裡告訴我們的,盲目的全然相信演算法也是有其危險性(像被GPS帶去海裡之類的),不過在害怕機器犯錯時,我們常常忽略了如果是人為的話,人也會犯錯,而且機率犯錯極有可能還更高。所以我們究竟該把多少權力下放給機器?這是個需要去思考的問題。

演算法可能造成的危害

而除了機器演算錯誤的問題外,在的使用成面上演算法也隱含許多可能的問題。最直接大概就是中國所推行的信用制度,這種類似《1984》的情節,在AI演算法的幫助在正即將在我們隔壁的國家發生。另外在民主國家中,前些日子被吵得很兇的「劍橋事件」,也是利用數據跟演算法來干預民主國家的選舉的典型案例。雖然書中有說明,藉由演算法發放鎖定式廣告,被影響人數可能是從原本的千分之十增加到千分之十五,在數學上可能被放大成增加了百分之五十,實際上就只是一千人裡多了5人,但在贏者全拿的選舉裡,這微小的差距可能便可使一名候選人當選。

此外還有每個人都知道的隱私問題,我們瀏覽過什麼網站、買過什麼物品、我們的個人資料等等,都有可能成了商品賣給了資料公司,資料公司再藉由這些資料來賣服務給別的公司。即使許多資料都有去識別化的動作,但只要與其它資料做比對,很容易就能可以知道你是誰。也因此,可能那些資料公司會比你父母更早知道妳懷孕了或被當了。在不知不覺間,你的祕密除了被洩漏外,也可能已經成了別人的商品。

再者,演算法也很有可能加深我們的偏見。例如前面所說評估一個人假釋期間違反假釋規則的機率。如果當黑人的罪犯本來就比較多,那你如果是黑人你就更難假釋也更容易成為演算法下的受害者。只是黑人的犯罪數量多是源自於長久以來的低社經地位及歧視偏見,透過演算法可能只會加深這個循環。除了黑人之外,女性、同性戀、跨性別者等等,只要你不符合主流的文化,變比別人更容易成為這個演算法世界中的受害者。

結論(我的看法)

只是當然,我不會因此去否定整個演算法,工具該什麼使用還是取決於如何使用。以上面所說的偏見為例子,我們也可以把演算法的規則設計成比較符合我們理想的社會,例如把窮人、黑人再犯率降低,把白人、富人提高,藉此也許可以慢慢的改善這個社會的模樣。

所以,我想最主要的還是我們需要好好為這個演算法的世界做準備。無論是相關的限制規則還是法律層面,使用得當的話,演算法確確實實能大幅度改變人類的生活。所以,你準備好跟演算法的世界說Hello了嗎?

如果想要大致了解人工智慧的原理的話,我推薦《圖解 AI 人工智慧大未來:關於人工智慧一定要懂得 96 件事》這本書。

--

--

Tetsuo
隨筆手札

為了練習論述能力和文筆偶爾傳些東西上來,這裡主要放些長篇的閱讀心得或讀書筆記。基本上就是仗著匿名寫自己想寫的東西XD 短篇隨筆跟心得放在 https://www.instagram.com/tetsuo_2019/