時事想一想:從A/B測試到AI,人工智慧如何帶選舉風向、駭入人心?

隨著投票日愈來愈近,網路、媒體各種帶風向也愈演愈烈,在科技影響之下,你相信你所做的選擇,真的是你自己決定的嗎?
圖片來源:shutterstock

能夠左右人心的AI 技術,不只是自動化的A/B 最佳化程序而已。像「聊天機器人」(chatbot)這種目前最陽春的對話系統,就可以自動針對從社群媒體或聊天網站和論壇所收集的訊息,予以特定回應。

以推特(Twitter)這類網站來說,某些特定主題的人氣流量,幾乎都是由網路聊天機器人所造就,這種情形變得愈來愈普遍。2016年10月18日,據CNN報導指出,三分之一支持川普的推文並不是支持川普的「真人」所寫,而是聊天機器人的傑作。該報導引用牛津大學教授菲利普・霍華德(Philip Howard)的研究,他表示33%支持川普的人氣流量都是聊天機器人產生的,而希拉蕊・柯林頓則以22%落後。沒有人知道聊天機器人究竟對2016年總統大選的勝負造成多大影響,無論這些聊天機器人來自何方,也許是美國、俄羅斯或是其他地方,但一場只要幾個百分點就能定輸贏的大選,說聊天機器人與此毫無瓜葛顯然不可能。

如今,只要哪個團體或組織夠聰明又夠積極,願意投入必要資金 ,就能得到這種AI系統,那麼一場選舉就目前的形式來看,即便是民主體制下的選舉,會不會變得很容易「被駭入」而最終導致選舉徹底崩壞呢?

圖片來源:Freepik

現今的媒體環境可以說淹沒在「假新聞」與「另類事實」的浪潮之中。記者與權威人士都戲稱當前的政治風景是「後真相」(Post Truth)時代的表彰。「假新聞」策略因為緊扣人類推理能力的重要缺陷而有出其不意的好效果。所謂的「缺陷」,是指人的心理構造有其固有的安全漏洞,那是我們遠古時代四處遊走、形成緊密部族的祖先所留下的殘跡。人腦在「理智的猛攻」之下,為了保護意識形態,就會啟動封閉機制。換句話說,我們寧可相信謊言,也不願意讓真相瓦解整個部族的忠誠。

政治研究人員布蘭登・奈恩(Brendan Nyhan)和傑森・萊夫勒(Jason Reifler)把這種漏洞稱為「逆火效應」(backfire effect),他們的研究工作旨在針對這種效應,探討從反疫苗接種運動,乃至於媒體始終無法導正視聽、澄清歐巴馬並非穆斯林的傳言等等各種包羅萬象的表現形式。他們一再發現,當媒體著手澄清「另類事實」(alternative fact)的時候,觀眾就會疏遠該媒體。經過一連串的研究,他們歸納出一個結論:這種效應在宗教和政治有關爭議上尤其明顯。這表示領導人、政治團體和廣告主可以「駭入」一般人的意識形態,觸發心理上的封閉作用(psychological lockdown),控制我們的情感。

心理學家丹尼爾・康納曼在他2011年開創性的著作《快思慢想》(Thinking, Fast and Slow)中,從不一樣的角度述說人腦弱不經風、容易被駭入的其他面向。他將人類的思維劃分成二個部分:「系統一」是直覺式思考,無須費力,而「系統二」則是有意識、刻意又費神的思考過程。日常生活上的任務多半交由系統一來思考,因此系統一很容易「被駭入」。快思就是一種樣板思維,當樣板受到左右,比方說偏頗某位候選人,那麼我們每次吸收新資訊時,自然就會忍不住倒向那一邊。

圖片來源:shutterstock

人類的弱點在康納曼所說的「定錨效應」(anchoring effect)現象中可以說展露無遺。很懂得買賣策略的業務員都知道怎麼運用定錨技巧。以典型的跳蚤市場買賣為例,假設現在有一款古董沙發,我們想要詢價。賣方說沙發要價4000美元,我們迅速估算了一下後(並催眠自己這是一個理性的決定)便立刻拒絕。我們正打算離開攤子,賣方又說他可以給我們特別優惠,算我們900美元就好。結果這款沙發馬上就變成一樁絕對不容錯過的好買賣,雖然它明明還是很貴。有了另一個看似更合理的估價,我們就覺得這個「僅此一次優惠」的買賣非拿下不可,不然什麼時候還會再出現這麼好康的機會呢?

從上述例子可以明顯看出,這種銷售手法是以定錨效應為基柱。我們所做的評估看起來合理又客觀,但其實第二次聽到的報價已經使這種評估有了嚴重偏差。

心理學家羅伯特・艾普斯坦(Robert Epstein)在2014年的印度選舉當中,利用定錨效應的相關研究,測試線上搜尋結果會對一群選民產生何種影響。艾普斯坦發現,他和共同作者只要把正面或負面連結放在搜尋結果的前幾名,就能鼓動中間選民最後投票給某位候選人。他們的實驗顯示,偏頗的搜尋結果可以提升中間選民的投票率達12%或以上。

但這種無形的操弄手法不只存在於政治界,簡單如最新的A/B測試技術,都看得到現在稱為「點擊釣餌」(click bait)的東西。

Google的反覆式廣告模型(iterated advertising model)用了10多年後,可以說把人腦的漏洞善用到一種極致的境界。時至今日,即便是頗具名望又高水準的網站所做的廣告,現在都演變成一張張詭異的影像,一如A/B測試的結果,這是因為人的視覺皮質(visual cortex)被訓練成會聚焦在景物當中最怪異的地方。遠古以前,這樣的技能能讓草原上的人類注意到老虎或獅子的動靜;如今,假如使用者停在某個網站上,看到一張讓人完全摸不著頭緒的影像時,比方說奇形異狀的水果或是人體某個部位的一小部分,那鐵定就是駭入人心的手法無誤。人的「快速思考」系統(出於習慣又不由自主的機制)絕對會點擊那張影像,而我們甚至連自己的動作都沒意識到。

AI驅動的自然語言生成系統(natural language generation)甚至可以造出自動語句,標榜優惠、請託和其他聳動的東西,專門用來觸發特定動作,更進一步發揮點擊釣餌模式。現今的技術專家也利用AI鑽探線上行為模式,也就是所謂的「現實探勘」(reality mining),設法透過使用者走過的軌跡來推估其接下來會發生的行為。不過,未來的AI除了可推估真實行為之外,還能夠「寫入」真實行為。以AI為基底的策略時代來臨之後,各團體和組織不再侷限於預測選舉,他們甚至可以「翻轉」選舉結果。不過就在短短幾年前,「阿拉伯之春」(Arab Spring)在中東掀起革命浪潮,莫不叫人驚嘆,而未來的AI將有助於我們「創造」阿拉伯之春。

這裡所指的可不是有感知力的「強」人工智慧,其實只要運用當前既有的技術,也就是「弱」人工智慧,再加上人類操作者賦予意圖,駭入人心真的不是難事。

圖片來源:shutterstock

隨著AI系統帶動接二連三的變革,人類相互連結的社會、金融和生態系統勢必也會跟著產生不計其數的突現行為。就拿突現的縮影「金融市場」來說,演算式交易途徑可以不斷傾巢而出,終至賺進大把鈔票為止,這便是任何一種演算法與複雜的系統聯手之後,突然出現的複雜現象。系統與之休戚與共,故而難以擺脫任一實體的作為。或許最叫人難堪的就是,在任何網絡型的社會結構之下,觸發這種傾巢而出的現象其實用不上人類的智慧。也就是說,只需要大量資料和一些設計良好的演算法,再搭配龐大的處理能力,不需人力即可搞定一切。人類到最後恐怕只會被機器學習的黑盒子駭入存有漏洞的心智當中。當前大家所看到的,也只是新突現式威脅所揮出的第一道刀光劍影而已。

我們應該怎麼做,才能用以往公民社會前所未見的規模來抵制大眾操縱手法呢?我認為,人類創造出來的無邊界公共空間,即網際網路及其串連的社會與系統,並不是治安人員有辦法監督的地方。難道禁止深入研究人工智慧就能阻擋既有技術的運用,或是有助於防範此類技術的誕生,保人類平安無事嗎?踏入此新時代之後,勢必會有人濫用AI來策動有疑義或惡意的計畫,當然也會有人用同一種技術來保護社會。祭出禁令以作為防護,反而有可能置人類於險境。大家很快就會明白,唯有AI才能保護人類免受AI的傷害。

圖片來源:shutterstock

AI創世紀: 即將來臨的超級人工智慧時代
https://www.books.com.tw/products/0010802295

圖片來源:寶鼎出版