以人為本:Human-Centered AI Design原則與案例

Microsoft Sr. UX Design Lead 陳翰申分享

yxz
peraspera*
9 min readMay 26, 2019

--

「矽谷的大家和台灣的大家都面臨一樣的瓶頸,而正是我們的機會」

「好的演講不是給你十個答案,而是讓你有更多問題」講者說。

恩好的,那這真的是一場非常好的演講(笑。我自己的筆記分成以下四大部分,有些講者說不能拍的地方我就先省略了。但如果有興趣的,可以私下跟我借筆記(誒。

(1) Google Home使用的設計語言(Conversation Design)
(2) AI&UX的歷史
(3) ML的基本概念與常用詞彙後
(4) AI product的設計流程。

每個部分將會附上相對應的連結,或是回家google後覺得合適的補充資料。

Conversation Design

在AI的輔助下,同樣的介面但有不同input的可能(Internal Modal);同樣的動作/功能可以在不同的介面輸入指令(Multi Modal)。了解多互動介面間的關係,是釐清Smart Home系統的第一步。

也因為新型態的設計經超過我們習慣的平面介面,同樣的指令在不同的情境下將需要不同的反饋,所以Google的語言才會以“Conversation”為名。每一次互動都像對話一樣,將會隨著文義與情境而異。

History of AI&UX

這部分講者提到一個很有趣的問題那便是「AI應該用來取代(Replace)人類抑或是與人類共生(Argument)?」透過回顧C.R. Licklider 與Doug Engelbart在1960年代的研究,講者認為AI不應取代人類,應該從旁協助人類為是。

我自己則是覺得,雖然應該沒有人會覺得人類應該要被取代,但大家不防可以想想哪些場景人類是可以被取代,及如何gracefully的將AI用在那些場景。因為這些都是未來身為設計師我們可能會面對到的問題(沒記錯的話,Amazon都已經在設計倉儲裝用的機器人了)。

ML基本概念與常見名詞

因為之前自己有自修一點ML的概念,所以這邊筆記從缺。唯一記得的部分是講者也是不遺餘力的推坑前東家的Google Crash Course。不過他也特別強調,其實設計師並不需要真的會code,只要知道有哪些種類的AI,跟每個種類的output,與適合使用的場合其實就可以了,大家不要怕(誒。

PAI Guidebook

身為一個昨天才在看(今年Google Io剛發布的)PAI guidebook的人,我有種課前預習的感覺(之後也會寫一篇文章介紹PAI敬請期待?)。講者參與了PAI的發想編輯,所以介紹聽起來格外有感。

從釐清目的以便收取相對應得data,才能打造良好的產品。定位persona與通點都是傳統product design應該做的事,AI product比較不同的層面則是需要考慮:
(a) 是否需要用到AI? AI有帶來什麼助益嗎?
(b) 什麼樣的AI output對使用者有助益?
(c) 應該要收取什麼樣的data才能回答user needs?
(d) AI系統的表現如何?他被使用的情境容錯率又是如何?

這邊講者提到TUDelft的設計方法What? How? Why?,認為這是一個有效的方法,而且在跑完What How Why後應該再跑一次reverse版本用Why How What來檢視最終的設計品是不是符合原先設計的context,不成功的AI產品就也只是昂貴的實驗罷了。

結語

這篇意外地成為一篇非常乾的乾貨,希望大家還吃得下去。但也可能是因為之前有稍稍接觸過ML,所以有些東西已經被轉化成background knowledege了,以致於中間潤滑的部分就通通沒有了(誒。身為一個每個星期都在課堂上跟教授辯論著to have human in the loop and how to 的我,今天真的是收穫滿滿。滿到有點當機的感覺(這也可能是為何今天的文這麼乾)。

筆記最後一頁有著巨量的Qs,有好多問題想問,有好多事情想做,謝謝講者讓我更想要做實驗了!!!!!

題外話

在過場的時候有提到ProPublica 2016年針對AI系統是否有種族歧視的文章。講者引用ProPublica指出系統可能會有偏見,指出如果取樣本來就有偏誤。牢裡的人照相本來就不會笑,所以不笑的人判斷為壞人的機率自然比較高。

「在這個場合怎麼會想到要用machine visual來判斷好人與壞人呢?」

Data取樣不公正(biased)會造成系統偏誤甚至歧視,這個想法並沒有錯。

對COMPAS系統考量的137個core survey questions有興趣的話,歡迎大家參考生產COMPAS的Northpointe公司提交的法庭文件。

但讓我感到疑惑的是ProPublica那篇文章討論的系統是State v. Loomis的COMPAS系統。

COMPAS是威斯康辛州用來預測再犯率的演算法,會針對再犯率的高低給予1–10分,分數越高即代表再犯機率越高。但就我所知,COMPAS所用的137個訓練資料,並沒有用到犯人的mug shot。既然沒有餵圖像進去COMPAS,應該也就沒有用machine visaul來判斷好人與壞人的問題

(但這不代表COMPAS這個系統沒有問題,COMPAS本身問題可大著,只不過目前沒看過有在討論機器視覺的,應該)

又,如果對COMPAS系統有興趣,也歡迎大家找我討論(我連寫了兩個禮拜的分析文獻我都要吐了)。

噢對了,似乎最後一段都要放一些call to action叫大家拍手或追蹤什麼的。但我覺得我寫的文章略小眾,所以大家自由心證不強求。

  • YS Chiang:可以看到我中文與英文的發文,基本上會發一些小眾設計相關的文章,分析產品(例如痞客邦)或介紹工具(例如這一篇)什麼的。
  • trialnerr0r :矢志讓他成為一個英文publication,基本上就是參加研討會或是我看了什麼文章的心得摘要,最近多半是人工智慧法治相關文章。

--

--