[AIUX] Ch3 心智模型

AlfredCamera
AlfredCamera Team Blog
10 min readJul 18, 2021
這系列文章為 AlfredCamera 工程和設計團隊閱讀 Google People + AI 內容綱要和討論筆記,期望透過平常設計 AI 產品的設計師和工程師的補充,讓文件中的知識更容易被各種背景的人員吸收應用。由於在討論中也發現 AI 產品設計的中文資料較少,因此整理分享期望能幫助到其他團隊。原文摘要在文中以白底區塊為主,團隊的討論會以灰底區塊呈現,方便大家閱讀。如果有任何建議歡迎留言討論,或來信 hello@alfred.camera 😊
Design based on People + AI visual style

我們看待事物的方式,而不是事物的本身如何,決定著一切。 — 卡爾·榮格

我是誰? 我們是如何理解這個世界?

為什麼對一些事物有特別的情感? 又或者對同樣問題卻有著不一樣的前提假設?這些可能源自於生長環境、接觸到的人事物,甚至演化的過程中逐漸形成一套自己對世界理解的方式。這套理解事物的方式與產生行為的過程,就叫心智模型。

理解用戶的心智模型,有助於根據產品能做什麼、不能做什麼設定符合用戶心理期望的產品。另外,心智模型是可遷移的,例如會騎腳踏車的人去學習騎機車會更加容易。如果沒有讓產品順利的匹配用戶的心智模型,就有可能無法滿足對產品的期望而感到沮喪,而導致產品的濫用或棄用。

為了避免這種情況,有以下幾種做法

  1. 讓產品對不同的心理預期進行匹配
  2. 漸進的方式啟用產品
  3. 透過用戶反饋提升產品達成期望擬合
  4. 考慮用戶對AI的期望
📝 補充 affordance有個相關的概念叫做 affordance,大概指某個物件\產品會怎麼引導使用者使用。例如:門把是橫的會讓人想要推、直的門把會讓人想要拉。做設計的時候除了了解使用者的心智模型,也要思考產品給使用者什麼 affordance,兩者一致比較有機會引導使用者進行我們希望他進行的操作。

一、讓產品對不同的心理預期進行匹配

我們可以將能滿足不同預期的產品匹配給有著不同期望的用戶。隨著AI應用越來越普遍,甚至可以直接讓用戶知道如何才能找到他們所期待的東西。要了解用戶與產品的互動關係,要解決以下問題:

  • 用戶想做什麼
  • 他們會有什麼樣的心理模型來使用產品
  • 新用戶會透過什麼樣的手段與步驟達成他們的目的
  • 這個流程在用戶間的一致性如何
📝 補充:關於如何知道用戶想做什麼這段在講 identify mental model,但稍微提到的作法似乎是「自己思考」,設計方法上可以用同理心地圖輔助大家如何更感同身受用戶的 metal model。

二、漸進的方式啟用產品

在引入 AI 產品時,要考慮與現在用戶心智模型的差距,分階段引入,并評估每個階段會如何形成與改變心智模型,避免恐慌或過渡預期。許多產品過度強調「AI 魔術」能幫助他們完成任務,這可能讓用戶高估產品功能而感到失望。有時開發人員為了降低產品複雜性而隱藏一些流程也可能使用戶感到困惑與降低信任。因此「解釋清楚產品」與「提供 AI 產品的高層次模型」間需取得平衡。

📝 關於分階段引入這在設計上是非常基礎的作法,在引入一個新功能、新的變化時,即使有信心這是對用戶體驗是整體正向的改變,仍要考慮老用戶的使用習慣,引導他們漸漸轉移到新的使用習慣。所以用戶旅程圖之類的使用分析,很常見的基本分法之一就是新老用戶的使用旅程會分開。📝 關於損失規避當我們認真地分析一個功能的優缺點時,別忘記損失規避心理帶來的加乘作用。面對同樣程度的收益、損失,人們普遍對於損失的反應更大一些。

幾個為產品設置正確期望的建議:

  1. 用戶第一次接觸產品時,最好就在銷售過程取得的訊息中了解到產品能做什麼與不能做什麼
  2. 提供其運作原理闡明產品價值
  3. 提前讓用戶知道,產品可能需要他們的反饋才能改進
  4. 理解用戶反饋背後所關注的價值
📝 首因效應也就是俗稱的第一印象。人際交往中,人們更傾向接受優先接收到的訊息,即使先後訊息有落差,第一次接受到的訊息的影響力和權重都是比較大的。人與產品的接觸可能也是類似的吧,所以 onboarding 是非常重要的流程。

說明收益,而不是技術

作為產品創造者,可能會陷入以技術為主的心智模型中,要確保要透過那些細節同步用戶的心智模型。如果用戶有興趣了解基礎基礎,讓他能透過漸進式的方式了解到更多訊息。(好的老師會讓學生覺得學到很多)在說明上應關注技術本身是如何改善體驗或是新價值。

範例:強調如何使用戶受益,而非技術
📝 雖然這段指示非常合理,但由於 AI 的特殊性(不斷變化的模型),阿福內部在實作時,對於「詳細說明」仍會非常謹慎,深怕讓用戶誤解成「功能保證」。

僅在需要的時候引入新功能

只有在用戶真的需要,能獲得更好的體驗或幫助時,觸發用戶內在動機才引入新功能。用戶是否願意花時間進行嘗試取決於他們使用產品的目標,無論目標是什麼,都應該讓用戶快速了解能怎麼從產品獲益。

範例:只在用戶需要時出現適度的建議

設計實驗性任務

許多用戶會透過親自試用來體驗一項新技術,這也是為什麼有些人直接跳過 onboarding 的詳細說明。你可以善用這個心理,設計適當的實驗性任務讓用戶可以試試看。這樣的任務中也要確保保留用戶反悔、試錯的空間。請記得考慮用戶的使用場景是否允許他們自由探索,如果是輕鬆的居家情境,可以想像用戶能花大量時間慢慢體驗你精心設計的任務。但如果是嚴肅的工作數據產品,可能沒有用戶有心情去體驗和試錯。

範例:提供簡單的小任務讓用戶快速體驗產品

三、透過用戶反饋共同學習 (co-learning)

透過收集用戶反饋,不斷的優化產品,同時也不斷更新用戶心理模型。

連接反饋和用戶利益

讓用戶知道他們為什麼要給產品反饋,以及如何給反饋。有兩種常見的反饋的方式:

  1. 隱式反饋 (Implicit feedback):用戶可以知道提供的那些訊息正使用在什麼「目的」,根據使用行為得到被動的反饋。
  2. 顯式反饋 (Explicit feedback):用戶有意識的進行反饋,讓用戶直接做選擇或設定,這樣會讓用戶感覺對產品有控制感。

收集反饋時,要向用戶說明這些反饋會如何幫助產品變得更符合他們期待,也就是連結反饋到用戶的利益上。

📝 機制設計:激勵相容激勵相容的機制是以「當每個參與者都誠實揭露手上的資訊時,整體會獲得最大的利益」。這個機制跟 AI 的反饋設計非常相似,只有當每個用戶反饋都是正確的,AI model 就更能幫助到所有用戶。📝 為什麼要跟用戶解釋反饋用途?根據心理學的實驗,人們更傾向接受有理由的事件,即使這個理由沒有堅固的邏輯。

好好地失敗 ( Fail Gracefully)

當產品產生錯誤無法達成用戶期望,如果產品可以隨著時間進步學習,這就是建立反饋的機會,一旦建立這種關係,會讓用戶覺得錯誤是可被忍受的,甚至會幫忙修復可被解決的錯誤,反而可以建立共同學習進步的心理模型。

📝 雞蛋理論比較廣為人知的名稱是「Ikea 理論」,透過自己付出心力得到的成果,通常會更重視和珍惜,例如自己組合的 Ikea 傢俱。在這裡透過讓用戶參與、維護自己的產品數據,巧妙地把原本令人難受的產品錯誤,轉變成為了繼續達成用戶目標而做的付出。

對於一切事物,希望總比絕望好。 — 歌德

當系統不確定或無法完成用戶需求時,要確保在不依賴 AI 下的體驗,不要讓AI 變為優化產品體驗的阻礙。

範例:在錯誤情況下,提供用戶自我修正的路徑
📝 其實不止 AI 相關功能,阿福希望用戶即使在出問題的情況下也不能有無法達成目的的情形發生。但這種情境幾乎怎麼做都只是讓用戶不那麼生氣,很難達成正面情緒。

提醒、加強、調整

如果用戶常使用產品,可以確保心智模型的同步或強化,但如果是使用頻率較低的產品,就很容易讓心智模型與產品弱化甚至脫節,因此要考慮到如何維繫用戶對產品的心智關係。

跟蹤用戶需求

監視產品的使用方式,查看行為趨勢,在用戶感到困惑或沮喪時幫助用戶重建或調整心理模型。

適應不斷更新的使用流程

有時候,某項功能的變動大到會引起用戶的注意,就需要考慮到用戶是否需要重新適應或學習。

四、考慮用戶對擬人互動的期望

近年越來越多產品以擬人為主要賣點,如 Alexa、Google Assistant、Siri。「擬人化的產品」有正反面影響,人們的確更喜歡反應如人類般自然的產品,但如果未明確傳達產品算法的性質或限制,可能會導致用戶不切實際的期望,最終導致用戶感到失望甚至被欺騙。理想上,我們希望不論用戶的背景如何,都能清楚理解產品擬人和限制的部分,進而對產品有正確的期待。這是 PAIR 仍在研究的一大主題,未來會持續更新在文件中。目前可嘗試看看以下作法:

明確傳達 AI 限制與功能

人們可能難以為擬人化的 AI 建立準確或有用的心智模型,因為 AI 執行任務的方式本質上與人類是不同的,即使功能看起來與人為手動類似。例如人類可能在不同角度的照片中知道裡面是同一個人,但 AI 卻較難做到這點。

AI 並不能像人類擁有通用的能力做任何事情,儘管他能帶給我們很多方便,但他仍然很脆弱。通常,廣義的「助手 AI (helper AI)」的想法更容易理解,並且對用戶更具吸引力,但是當系統的界限不清楚時,不信任的風險就很高,他們可能會在錯誤的時間過度信任系統。根據您的用戶的理解範疇,決定 AI 產品應要有的說明範圍和擬人化程度。

範例:當 AI 有所限制時,不要讓他展現出人類水準的說明

提示正確的互動方式

透過擬人的對話建立用戶的心智模型可能是好方法,特別是通訊類型的產品。聊天機器人如果使用第一人稱進行對談,可以收集到更真實的對話特征。但這種方法也存在一個風險,使用第一人稱會讓使用者產生接近真實人類的預期,但系統卻做不到,因此需要取得平衡。

範例:在對話中也要展現出限制
本文編者名單主筆:Frank Lin
編輯:Weiyun Hsu
討論:AIUX 讀書會成員 Cheyu, Frank, Jacky, Ron, 宜婷, Weiyun

--

--

AlfredCamera
AlfredCamera Team Blog

AlfredCamera 從使用者出發,專注在推出解決大眾生活問題的普及化 AI 應用。全球已累積超越四千萬用戶下載,北美最受歡迎的居家安全監控軟體,並分別在 2016 年與 2019 年獲得 Google Play 年度最創新 App 與年度最佳生活幫手 App 的殊榮。