沒有教養的 AI
當 AI 的智慧追上(甚至超越)人類,不如索性讓 AI 統治人類會比較公平吧?因為 AI 沒有感情也不怕受壓力,所以 AI 做的決定應該是最準確而且大公無私的啊不是嗎?不過最近有測試顯示,AI 其實和人類一樣,充滿各式各樣的偏見。到底是什麼做成這個現象?
▍教導無方
AI 發展近年之所以突飛猛進,是由於 #MachineLearning 技術的突破。就像教育小孩一樣,在人類從旁引導的情況下,Machine Learning 讓電腦透過不斷嘗試和錯誤 (trial and error) 中學習,「領悟」出一套複雜的思考技能,例如辨別樣貌和語言等。所以人類的文化和見解,都對 AI 的「成長」產生決定性的影響。
▍歧視黑人和女性
最近就有報告指出,AI 的 #人臉辨識 技術,對白人男性有非常高的準確度,但卻經常認錯黑人及女人。試想像如果日後的付費系統、甚至出入境通關都要靠人臉辨識系統來運作的話,小數族群將會遇到不少麻煩。為甚麼 AI 會歧視黑人和女人呢?
▍營養不均衡的 AI
每個 AI 系統的成長,都需要大量大數據 (#BigData) 作為養份。所以如果大數據的內容有偏差 (例如白人數據遠超黑人數據) 的話,AI 就會在「營養不均衡」的環境下長大,到投入服務的時候,自然會出現各種偏見。
▍思考模式的遺傳
另外,程式編寫員要為 AI 製定思考模式,而製定過程非常受編寫員的文化和觀點影響。萬一編寫員有歧視的傾向,這種思考模式就會「遺傳」到 AI 身上。
▍充斥歧視的未來社會
未來的日常生活,以至法律、醫療甚至政治的運作,都將會受到 AI 的影響。AI 充滿偏見的話,社會將會充斥各式各樣的歧視。要如何解決這個問題呢?重點在於開發團隊的組成。如果開發團隊由包含各個族裔組成、各有不同文化背景的話,他們所偏寫出來的 AI 系統,思想會更多元化,所做的決定就會更「持平」了。
▍追蹤 ig➤ https://www.instagram.com/fuuutopiaaa
▍追蹤 telegram ➤ https://t.me/fuuutopia
▍追蹤 facebook➤ https://www.facebook.com/fuuutopia/
▍追蹤 twitter ➤ https://mobile.twitter.com/fuuutopiaaa