XAI| 模型可解釋性的重要

人工智慧所面臨的挑戰,如何打開黑盒子?

Sherry Su
Sherry.AI
Jan 18, 2020

--

大多數的情況下,高準確率的模型往往過於複雜,導致人類難以理解其決策與行動背後的原因,因此機器學習(例如:深度學習)常被視為黑盒子(black box)。那麼什麼是可解釋 AI(Explainable AI,又稱 XAI)?若是模型「缺乏解釋性」又會帶來什麼影響呢?

一、介紹

2016年是人工智慧(AI)的最閃耀輝煌的一年,AlphaGo 就是一個最經典的例子,AlphaGo 使用了30萬張的棋譜,接連戰勝了2位頂尖棋手,讓大家看見 AI 的無窮的潛力。而大數據的環境下,使得 AI 成為現今最熱門的應用方法,不論是運輸業、金融業與醫療等都漸漸導入相關的技術。AI 正在改變著我們的生活習慣,甚至輔助企業做決策。但是,當前的 AI 技術仍然有個致命的缺點:缺乏解釋性。而盲目地相信與迷信模型所下的決策是非常危險的,可能會產生負面影響或完全錯誤的結果。

> 想瞭解更多 AI 正面臨的挑戰與瓶頸,可參考以下的文章:

二、為什麼需要打開黑盒子

大多數的資料科學家在解決預測問題時,往往傾向關注準確度的指標(例如:RMSE、Recall 等等),就連 Kaggle 競賽平台的評分機制也是。而高準確度的模型往往過於複雜(尤其是深度類神經網絡,由於多個隱藏層與大量非線性性質的權重,幾乎難以理解輸入和結果輸出之間的關係),難以理解其演算法的決策方式, 因此常被視為黑盒子(black box)。

幾年前在工作面試時,我曾問面試官(資料科學家)對於黑盒子不可解釋性的問題,有什麼看法?他們的回答是:若你建模的目的只是要預測,那麼解釋性似乎就沒那麼重要了!但真的是這樣嗎?

當然,準確度固然重要,但這些指標只能夠提供模型的部分訊息,資料中的相關性與隱藏的訊息是無法用準確度表達。 如果想將 AI 技術推廣到更多領域,只要是具影響力的應用,例如協助醫療診斷,又或者是協助判斷是否假釋囚犯等等,就必須試圖理解模型是如何做出決策,促進大眾對於模型的信任感。以下歸納了幾個為什麼需要解釋模型的的原因:

可解釋AI的概念。圖片來源: https://www.darpa.mil/program/explainable-artificial-intelligence

・判斷結果是否合理,進而改善模型

若能解釋模型如何做出判斷,我們就能藉此判斷模型的決策是否合理,進而修正模型, 確保模型的可靠性。尤其是當資料中存在偏差時(bias),模型缺乏解釋的話,是很難發現模型有問題。

舉個例子來說,若今日我們建立的一個模型來辨識「狼」與「哈士奇」(訓練資料集來源是狼與哈士奇的圖片庫),而在驗證後此模型時的準確度高達99.9%。

狼(左)與哈士奇(右)。圖片來源: https://pxhere.com/

但是當模型辨識下面這張圖時,模型卻將「哈士奇」辨識成「狼」,這時若模型缺乏解釋力,我們便很難理解模型為什麼會誤判,進而改良下一個版本的模型。但當我們嘗試著去理解模型時(假設模型可以解釋被理解),竟然發現原來模型判斷的依據是圖片中是否存在「雪地」,而不是狼與哈士奇的特徵差異(例如:眼睛顏色)。

哈士奇被判別為狼(左),解釋誤判原因(右)。 圖片來源:“Why Should I Trust You?” Explaining the Predictions of Any Classifier — Ribeiro, Singh, Guestrin (2016)

進一步去釐清原因,才發現原來資料集中狼圖片的背景幾乎都是雪地,而哈士奇的圖片很少有雪地,在不知不覺的情況下我們將模型訓練成了一個雪地辨識器。如果資料科學家只關注準確度的指標,是非常難發現這樣子的問題。但是透過可解釋性的方法,資料科學家可以更容易理解模型,進而減輕各類偏差與問題。

近期也發現有許多模型,因為資料中所存在的偏差與偏見,導致模型缺乏中立性並且無意間迫害弱勢族群的例子,例如: 性別歧視、種族歧視等。對於資料偏差所造成的社會影響,想要有更進一步的了解的人,可以參考2017年 Kate Crawford 在 NIPS 的主題演講《The Trouble with Bias》。

找出新現象,推論因果關係

模型的可解釋性能幫助人類從大量的歷史資料中發現新現象,萃取有用的新知識,例如:找出可能影響肺癌的潛在因子。由觀察到的相關性(correlation)中產生一些假設,再藉由實證科學的驗證來推論因果關係(causation),讓人類對於世界有多一點點的了解。

圖片來源: https://imgs.xkcd.com/comics/correlation.png

有統計背景的人應該都能理解:相關性並不能代表因果關係。而因果關係的發掘遠比相關性來的重要,但因果關係是需要經過實證科學的驗證,因此並不是每次所建構的模型都能揭露因果關係。

符合法規規範

隨著AI的演進,法規對於資料隱私權與 AI 的規範更加重視。在2018年5月,歐盟通過 GDPR 法案,其中「透明處理原則」就賦予民眾有權要求解釋(right to explanation)、拒絕適用(right not to be subject)的權力。因此,使得可解釋 AI 有迫切的需求。

三、準確度與可解釋性的權衡

如果可解釋 AI 這麼的重要,我們提高模型可解釋性不就好了嗎?但我們要知道天下沒有白吃的午餐,解釋性與準確性往往需要做出取捨。通常解釋力高的模型,由於結構簡單(例如:線性回歸)難以處理比較複雜的問題;反之,複雜的模型可以得到較高的準確度,但由於模型結構複雜,人類難以理解特徵與結果的關係。而為了解決上述的取捨問題,資料科學家主要朝著兩個方向解決解釋性的問題:

  1. 發展全新的模型框架(同時具備高解釋性與準確性)
  2. 發展模型的事後可解釋方法(找出解釋複雜模型的方法)
準確度與可解釋性的關係圖。

四、可解釋性方法的分類準則

在Christoph Molnar所撰寫的《Interpretable Machine Learning: A Guide for Making Black Box Models Explainable》書中提到了3個模型解釋方法的分類標準:

  1. 本質或事後可解釋性(Intrinsic or post hoc):本質可解釋性指的是基於模型簡單的架構,而模型本身就能解釋(例如:線性回歸、決策樹)。事後可解釋性指的是模型訓練後利用可解釋的方法來進行解釋(例如:特徵重要性、 PDP)。
  2. 是針對特定模型的還是通用的(Model-specific or model-agnostic):
    特定模型的解釋方法指的是解釋方法僅限於特定的模型類,這些方法依賴於模型的本身功能(例如:決策樹的規則、線性回歸的權重等等)。 模型無關的解釋方法指的是與模型架構無關,可以在任何模型上使用,並且屬於事後可解釋性。
  3. 局部還是全域解釋性(Local or global): 解釋方法是解釋單個預測還是解釋整個模型行為?還是介於兩者之間?。

補充說明
・可解釋性分為兩個部分,分別為模型透明度和特徵可解釋。
・模型透明度指的是模型是根據什麼演算法和特徵創建。
・現今用來解釋「黑盒子」的方法大多屬於事後且通用的。

五、總結

為了使 AI 推廣到更多的領域,模型可解釋性的發展至關重要,因為有良好的解釋,才能使大眾信賴模型的結果與提升模型的泛化能力。最後,在 AI 當道的時代,人類最重要的是要有思辨的能力,千萬不能盲目或迷信的相信 AI。

看完上述討論,一個未經過理解的模型,你還敢輕易地相信嗎?下一篇文章中將會跟大家分享打開黑盒子的方法,例如:LIME、SHAP等等。

最後,感謝你認真讀完這篇文章,如果你喜歡我的文章,請給我一些「掌聲👏🏻「追蹤我的專欄」,你的支持會是我持續分享的動力。若有希望我分享的主題,也歡迎在下面留言 📝讓我知道。

--

--

Sherry Su
Sherry.AI

Data Scientist @Trend Micro. Graduated from National Taiwan University.