讀書心得- 人心的本質(二)

Vincent Chen-WS
Vincent Chen
Published in
25 min readApr 2, 2023

The Mind Club- Who Thinks, What Feels, and Why it Matters

一、與動物為伴

因為動物是活生生的生命但沒有語言,因此它們具有典型的隱秘心智。由於動物沒有良好的溝通能力,因此我們很難準確衡量它們的能動水準和感受水準。動物的行為在多大程度上是出於生存本能,在多大程度上是出於有計劃的思考和深厚的情感?

人類中心說: 人類喜歡從自己的視角來看待世界。

時間尺度上的人類中心說指的是我們從人類時間的視角來看待世界,包括心智。在時間尺度以外,與人類的相似性也會增強對心智的感知

在努力認識動物的隱秘心智時,我們用動物的人性化作為衡量其心智水準的粗略指標。當然,“人性化”的問題可能像心智的問題一樣模棱兩可,因此我們通常依賴簡單的外形特徵來進行判斷,比如是否有眼睛。

我們對眼睛特別敏感,因為眼睛能夠傳遞數量驚人的資訊(和手肘相比),包括能動性和感受性。在能動性方面,眼睛體現了注意力的焦點,這體現了意圖以及接下來可能採取的行動。在感受性方面,眼睛能夠傳情達意,比如憤怒時眼睛會眯起來,恐懼時眼睛會睜大。

能夠做複雜的運動是人類的另一個特徵,我們將這種特徵歸因於心智。追逐、跟隨、投擲、編織、躲藏、尋找等事情,似乎比單純的靜坐需要運用更多的心智。眼睛和運動是心智的一般指標,但其他線索更具體,要麼體現了能動性,要麼體現了感受性。

能動性涉及行動和做事,因此效應器(effectors)是能動性的線索。效應器是活躍的或者可變的身體部分,它們可以移動、產生影響或者影響外部世界,它們包括與人類相似的手、胳膊、腿和舌頭,人類所沒有的翅膀、觸鬚、爪子、發光的腹部(比如螢火蟲)、噴射墨汁的墨囊(比如章魚)等。

感受性關係到感覺和情感,感受性的身體線索是感測器(sensors),也就是將感覺傳遞到大腦的身體部分。眼睛、耳朵、鼻子、觸鬚和觸角都是大腦瞭解周圍世界的途徑。由於感覺只發生在大腦內部,因此我們用反應來替代感受。

動物通過感測器接收輸入的資訊,而反應是體現動物內心狀態的指示器。效應器是動物輸出資訊的方式,它將願望和欲望轉化為行動。

動物會思考嗎?

現代的狗具有解讀人類思想的驚人能力,儘管這不是神秘的心靈感應。它們解讀的是我們的非語言線索,比如注視和指向。動物研究者普遍受到的批評是,他們是在虛構,而不是在客觀地觀察心智,他們把自己的希望和願望投射到動物身上,誤把自己複雜的社會認知當成是動物的。對動物心智最有條理的批評是心理學上的行為主義運動,它認為對動物(和人類)行為的描述不應該涉及心智狀態。這種行為主義尤其使得黑猩猩研究者去掉了對黑猩猩行為的描述中所有具有人類特徵的語言。

動物有情感嗎?

電影《看狗在說話》(Homeward Bound)中的情節一樣,有些狗會穿過整個國家,找到主人。當貓猛地撲倒在地,發出嗚嗚的叫聲時,它們顯然是想要與人親近。當然,主人死後,它們也會吃主人的屍體。非人類的動物雖然具有一些複雜的推理能力,但它們的前額葉皮質很小,就像青少年一樣,因此不能很好地控制衝動,也不能很好地理解自己的行為給他人造成的影響。動物可能在99%的時間裡是溫柔、友好的,但在它們饑餓、受到驚嚇或憤怒時,就另當別論了。

我們為什麼偏愛某些動物

對大多數人來說,動物權利涉及不同的層面:殺害小狗的行為令人髮指,但以貝類為食沒什麼不妥。人們如何判斷哪些動物屬於道德受體?當然是運用心智知覺。被認為有心智的動物會被賦予道德權利,而被認為不具有心智的動物則不會被賦予道德權利。我們看上去是根據能動性來決定誰能進入心智俱樂部的,因為保護猿類和海豚的法律常常會提到它們驚人的智力。

由於動物沒有語言,其感受只能存在於大腦中,因此我們很難瞭解動物能否感受到和我們一樣的痛苦。動物受傷時會扭動、尖叫,但這些跡象通常被認為僅僅是條件反射,不代表“真正的”痛苦。笛卡爾認為動物是生物彈簧和杠杆驅動的小型自動機器,它們會喊叫,但那只是源自機械聯動裝置,就像到了早晨鬧鐘會響一樣。

感受的神秘性意味著為了瞭解動物的痛苦,我們在很大程度上依賴外在的線索 — — 比如大眼睛、顯而易見的表情和與人類的相似性。

被我們批准進入心智俱樂部的生物不一定是最應該進入的,而是與我們有情感聯繫的生物。。雖然有時候動物不那麼可愛,但想到它們的痛苦依然會令人不安。我們認為牛很愚蠢,給它們貼上“牛肉”的標籤,使其出現在我們的晚餐上。如果可食用的動物是沒有心智的,那麼吃它們並不算殘忍。心理學家史蒂夫·洛克南(Steve Loughnan)所做的巧妙實驗證明了心智與道德之間的關係。在實驗中,雜貨店的顧客可以免費品嘗腰果或牛肉幹的樣品。吃完之後,顧客要填寫一份心智調查問卷,其中包括對牛的心智的評估。研究者發現,吃堅果的顧客認為牛具有豐富的心智,而吃牛肉幹的顧客則抹殺了它的思想和情感。一項簡單的後續研究顯示,僅僅是給動物貼上“食物”的標籤,就能大幅降低我們所認為的動物感知痛苦的能力

我們有時會讓動物擔責

那是1457年的夏天,故事發生在小鎮薩維尼(Savigny)。一個農婦在菜園勞作,她把兒子留在地板上的搖籃裡,之前她經常這樣幹。在她勞作時,一頭母豬帶著它的小豬溜進了房門,四處找食物。母豬發現了嬰兒,開始吃他。當農婦意識到出事時,除了軟骨和血跡之外,孩子已經被吃得不剩什麼了。可想而知,農婦和其他鎮民都傷心欲絕,如果這事發生在今天,我們會直接把豬殺了,但他們沒有這樣做,而是決定對豬進行審判。最終法官做出裁決。他認為母豬犯有謀殺罪,應該被處以死刑。而小豬因為年幼無知,被宣判無罪,但鎮民要對它們嚴加看管,以免小豬所見證的傷害扭曲了它們的道德感。

在你嘲笑法國農民的智商之前,請記住他們完全不傻,他們知道豬、蝗蟲和家禽沒有高級的心智,但事情的特殊性似乎在於目睹了不道德行為,無論是嬰兒的死亡還是大量農作物被毀,人們想要找到應該承擔責任的人或物。我們把這種迫切的要求稱為二元道德完型(dyadic completion)。

二元道德完型

人在感知到不道德行為時,會自動補全因果,找到應該承擔責任的人或物。

做個類比,想一想卡尼薩三角(Kanizsa triangle,見圖2–5)中視覺完形的過程。在卡尼薩三角中,一個三角形的存在使另一個三角形變得完整。無論如何嘗試,你都會看到第二個三角形。在道德二元體中,第一個三角形就是道德受體,吃豆人(Pac-Mans,白色三角形頂點處開口的圓形就像街機遊戲中的吃豆人)就代表不公正的感覺,這兩條線索推動你看到了白色的三角形(道德主體)。

圖2–5 卡尼薩三角(Kanizsa Triangle)

就像視覺完形促使人看到卡尼薩三角中的白色三角形一樣,二元道德完型促使人看到應該受到譴責的道德主體。你可能會質疑白色三角形是否真的存在,但就像心智和道德一樣,這是一個知覺的問題。重要的是,只有有意圖、有行動力、能承擔責任的真實道德主體才能滿足二元道德完型。

二、製造機器人

為什麼我們追求讓機器更像人,但很多人卻害怕逼真的機器人?

動物是大自然創造的,而像機器人、電腦和手機等機器都是人類智慧的產物。就像藝術家會注視著自己的作品,發現自己靈魂的新感悟一樣,我們也可以通過審視自己對機器的反應來瞭解心智知覺和人類需求。孤獨感和控制欲讓我們賦予機器心智。孤獨是一種壓抑的、折磨人的感受,常常被描述為令人痛苦的。

孤獨如此令人痛苦的原因在於,從進化上看,人類是為了生存需要彼此依賴的社會性生物。我們對社交的需要,可以解釋為什麼人們經常會美化自己與別人的關係。每當你把名人看成你的好朋友時或想像你和健壯的郵遞員關係密切時,你就是在創造所謂的“准社會關係”。與正常的雙邊關係不同,准社會關係只有單方面能感覺到,但對這個人來說,這種關係非常真實,即使其中涉及電視劇中的人物角色。

社會助長作用

在人前做事時,你執行任務的表現會更好,效率會更高。

“社會助長作用”是一個技術術語,指的是當你在人前做事時,比如演講或進行體育運動時會發生的現象。

幾十年來的研究顯示,社會情境能夠優化人們執行熟練任務的表現,但會劣化人們執行新任務的表現。這就解釋了為什麼運動員新秀會在壓力下失手,而老將則不驚不慌、表現出色。

孤獨會促使我們把想像的人物看成是心智俱樂部中的成員,這並不令人吃驚。畢竟他們是由真人扮演的,從表面上看他們具有真實的心智。但是孤獨還會使我們認為物品具有心智。

1. 《荒島餘生》(Cast Away)中飾演的角色發現自己獨自在一個荒島上,於是和名叫威爾遜的排球做起了朋友,以此來排解孤獨。

2. 落跑鬧鐘(Clocky,自行驅動的鬧鐘,會從睡懶覺的傢伙身邊跑開,和枕頭伴侶(Pillow Mate,可以主動擁抱的人形枕頭)。

正如預測的那樣,比較孤獨的人會認為這些機器的心智比較多,包括目的、意識、情感和自由意志。你越孤獨,就越會感覺到落跑鬧鐘有心智

這種認為機器存在心智的想法不僅使我們產生一種失真的溫暖感,而且讓我們感到自己能控制它們的行為。我們知道人類的行為是由想法和感受驅動的,比如人們因為悲傷而哭泣,因為追求瘋狂而在摩天大樓上玩極限跳傘,因此我們認為機器的行為也是由想法和感受驅動的。

機器常被認為具有心智的原因除了解釋事件動機和滿足人類社交需要之外,還有擬人論,就是把事物當人來對待的傾向。

暫且不談擬人論的普遍傾向,我們對心智的感知似乎有兩個顯著的動機:感到孤獨和渴望控制。在兩類可感知心智之間赫然的斷層線的另一種表現方式中,每種動機主要映射到心智知覺的一個維度上。一方面,當感到孤獨時,我們會感知到人、寵物和機器的感受性,它們似乎愛我們、關心我們,也需要我們回報以愛和關心。另一方面,在我們尋求控制時,為了預測和理解它們的行為,我們會感知到存在體的能動性。但是即使你既不孤獨也不困惑,可能也會比你想像中更需要機器,尤其是在我們有限記憶力的條件下,更是如此。

我們會把記憶分散到外部世界

你的記憶被分散在很多方面,包括筆記、書籍、人和機器,你可能沒有意識到這一點。記憶的這種分散性在我們與他人的互動中尤其明顯。

試問,你能記住多少電話號碼?12個,或許24個?也許沒有那麼多。在手機出現之前,你只能設定10個速撥號碼,至於其他的號碼,你要麼必須記住它們,要麼把它們存在你的名片夾裡。

只要有穀歌,你就會有一些心智。我們的頭腦遲早會和電腦融合在一起,這只是時間問題。一些科學家已經申請了可以隱藏在眼睛裡的微晶片的專利,華盛頓大學的研究者通過互聯網實現了利用某人的大腦信號控制另一個人的手部動作。

機器人能成為人類嗎?

頭腦與機器的融合會使我們變得更高效,但有人擔心電腦不可信,而且如果一切都交給設備,人類就沒有存在的必要了。

雷·庫茲韋爾(Ray Kurzweil)不這麼認為。雷·庫茲韋爾是一位未來學家,也就是說他會對未來進行一些預測。他最著名的是有關“奇點”的預測,在這個預測中,電腦變得具有了思考能力,尤其是對自我的思考。庫茲韋爾認為,我們只能指望當電腦變得無所不能時,它們會很仁慈。他期望能把自己的意識上傳到電腦裡,在互聯網上永垂不朽,與機器和諧共處。

當然,帶過三歲孩子的人都知道,我們的創意往往並不會按計劃的那樣發展。人們的購物中心之旅常常以大發脾氣而告終,小朋友恨不得搗毀所有的購物通道。誰知道控制航空運輸系統的超級主體亂發脾氣時會發生什麼,只是想想這種有意識、有情感的技術就令人毛骨悚然。

機器人能成為人類嗎?從一個角度看,人類只是開關按鈕的複雜集合(比如神經元),從理論上講,用矽電晶體而不是用肉細胞來模擬大腦應該是可能的。實際上大腦極其複雜,因此複製大腦極其困難,但科學家提出我們和機器人之間沒有原則上的差別。我們會本能地抗拒這個論點,因為人類和機器人之間有著明顯的界線。這條界線就是心靈、本質或者只是“人性”,無論你怎麼稱呼它,創造完全像人類的機器似乎不太可能。

艾倫·圖靈是一位著名的數學家,他不僅在第二次世界大戰中幫助英國情報機構破譯了納粹的密碼,而且開發了一種人類資格測試。圖靈認為,測試某事物是否具有人類智慧的最佳方法是看它能否像人一樣交談。因此他會認為,我們的小說家朋友即使不是人類,至少也具有人類心智。圖靈測試被稱為對人性的功能測試,也就是“像人類一樣行事就是人類”。哲學家的研究顯示,人們在感知心智時,有時確實會從功能主義的角度來考慮,相信如果某事物能像人一樣說話,那麼它就是人。

我們距離製造出看起來像人的機器人還有多遠?答案是,比你想像的要近一些,但在達到那裡之前,我們必須先跨過一座大山或一個山谷。

恐怖谷與感受谷(uncanny valley and The Experience Gap)

1970年,日本機器人工程師森政弘(Masahiro Mori)首次提出恐怖谷的概念,他對機器人的外貌很感興趣。他預測當機器人看起來比較像真人時,人們會喜歡它們,但當相似度超過一個臨界點 — — 機器人太像真人時,人們反倒不喜歡它們了。他還預測當機器人看起來和人類一模一樣時,人們又會開始喜歡它們。當某事物非常像人類,但又不完全像的時候,人們對它的喜愛度會降低,這就是森政弘所說的恐怖谷。

圖3–3 恐怖谷

人們喜歡可愛的機器人面孔,也喜歡真實的人類面孔,但當兩者被融合在一起,形成介於人類和機器人之間的面孔時,人們對此的喜愛程度會驟降。

一種觀點認為,人們喜歡兩種類別之間有明確界線的不同事物,包括人類和機器人。從這個角度看,十分像人類的機器人會讓人緊張不安,因為我們不知道應該稱它們為人類,讓它們擁抱自己一下,還是應該稱它們為機器人,讓它們用金屬手幫我們開汽水瓶。如果真是這樣,那麼任何類別的界線模糊都會令人不安。

我們預測人形機器人會令人恐懼不安,因為它們與人相似的外表暗示著它們具有人類的心智,這是人類不願給予它們的。儘管我們很高興看到外表和行為像人的動物具有心智,但心智存在於無生命的物體中可能會讓人感到不舒服,就像看到學步的孩子抽煙一樣。但是機器人的什麼心智會讓人感到不舒服,是能動性還是感受性?心智調查提供了一些線索。人類心智既具有能動性,也具有感受性,但我們通常認為機器人只具有能動性,這說明感受性是機器人的禁區。

當人形機器人的外表讓我們覺得它們好像有感覺和情感時,我們就會不安、不舒服。只有生命體才有感覺和情感,所以機器人沒有。我們樂意承認在心智俱樂部中,人類和動物是具有感受性的,而機器只具有能動性。

如果我們從根本上認為,無論機器人的外表是什麼樣,它們都不應該有感覺和情感,那麼即使機器人長得跟人一模一樣,只要它們表達了情緒,依然會令人恐懼不安。這不應該被稱為恐怖谷,而應該是“感受谷”(見圖3–6),只要一個事物依然被歸為機器,便永遠無法逾越這道深谷。

圖3–6 感受谷

更準確地說,恐怖谷應該被稱為“感受谷”,人們認為有感覺、有情感的機器和沒感覺、沒情感的人都是令人毛骨悚然的。有一種方法可以跨過感受谷,那就是設計一種看起來不太像人,但有著人類行為的機器,人們根本不會去想它到底是不是機器人。

把機器人作為易受傷害的感受者來對待會引發問題,那就是:它們是不是真實的道德受體?機器人值得擁有道德權利嗎?

機器人的道德問題

防止虐待機器人協會成立于1999年,它的使命是“提高公眾對有關人工智慧的一些倫理道德問題的意識”。在一個引人深思的短篇故事中,特雷爾·米丹娜(Terrel Miedaner)描寫了一個人試圖用錘子砸爛一個機器人。機器人見此跑掉了,想躲起來。那個人最終用錘子砸到了機器人,機器人翻滾著,“啜泣著”,流出了紅色的潤滑液。那個人知道它只是個機器人,但對其最後一擊依然讓人覺得這像一場謀殺。這是圍繞著心智俱樂部的謎題:儘管我們清醒地“知道”一個存在體是沒有感覺的東西,但外部線索和最終的不確定感使我們開始質疑自己。

當用來發現並引爆爆炸物的機器人MARCbot被炸毀時,士兵們為它舉行了隆重的葬禮,最後以21響禮炮表達敬意。就像軍犬一樣,人們似乎對那些做出英雄壯舉的機器賦予了心智,哪怕機器自己並沒有意識到它們的英勇。

當無人機殺害了平民百姓時,我們可以指責操縱它的人。但是當機器人擁有了足夠多的能動性,能夠實現自我導航時,會發生什麼?或許我們可以除掉壞機器人,對它們實施安樂死,就像我們對惡犬所做的。最後我們會考慮建立機器人監獄,讓機器人在牢房裡用幾十年甚至上百年時間反思自己的行為。

人們並沒有把重點放在懲罰機器人上,而是主要思考如何從一開始就造出有道德感的機器人。其中最著名的是以撒·阿西莫夫(Isaac Asimov)設想了未來機器人必須遵守的三條法則。

第一條 絕對不能傷害人類,也不能因為不作為導致人類受傷害。

第二條 永遠服從人類。

第三條 儘量保護自己。

然而,這三條法則的優先順序並不相同,前一條永遠優先於後一條。這意味著機器人不會遵從幫你殺人的命令,但它們會遵從摧毀自己的命令。

當人們在這類行為的道德恰當性上尚且無法達成一致意見時,機器怎麼決定該如何做?就像人類的道德觀念一樣,機器的道德觀念一定也是亂七八糟的。

然而,機器變得越來越複雜。它們已經被看成是有思想的行動者,可能很快也會被看成是易受傷害的感受者,這使它們能夠突破心智俱樂部中僅有能動性的那半個部分。當機器被認為既有能動性又有感受性時,從心智知覺的角度看,它們將成為人類中的一員。

三、隱形的受害者

相比有罪的壞人,為什麼我們更容易指責犯錯的好人?

patient這個詞通常會讓人想到醫療領域,其中,患者是由醫生、護士、醫療程式和診斷組成的漩渦狀星系的中心。從個人的角度來看,這個詞可能會喚起你的就醫記憶,當你穿著病號服,被人又刺又戳地做各種檢查時,努力保護著自己的尊嚴。patient的含義不僅是“患者”。人們通常認為patient有感受力,他們敏感,容易受他人的影響。鑒於主體是這個世界上有思想的行動者,因而受體是易受傷害的感受者。當然,患者也是廣義上的受體,

痛苦是怎麼來的

在人類的所有感受中,沒有什麼會比痛苦更真實、更直接、更抓人。能動性,也就是計畫和行動的能力,對未來是有益的,但痛苦的感覺將其他一切推到一邊,使我們只專注於當下。為退休做計畫也許不容易,而在被剃鬚刀片割傷的情況下做退休計畫簡直是不可能的。

痛苦也許具有壓倒一切的心理力量,但它的物理現實相比起來是無形的。痛苦是基於一些神經信號的心理構造,這些信號與我們看到綠色或黃色、聞到薰衣草或巧克力等各種氣味的神經信號相同。我們可能認為當感到痛苦時,我們的細胞會分泌一些嚴重“腐蝕”大腦的化學物質,但痛苦的強烈程度只是源自神經元微觀的電脈衝。外部的組織損傷通常會觸發這些神經元,相應的生物學通路是從割傷、燒傷或擦傷的位置開始,然後進入脊髓中的神經“大門”,再來到大腦的感覺中樞丘腦。

儘管這是典型通路,但痛苦是可以憑空產生的,例如患有神經性疼痛的人,一些調皮搗蛋的神經元造成持續的疼痛。這種持續的疼痛非常折磨人,但更致命的是完全感覺不到疼痛。從兩千多年前起就有人患麻風病。麻風病會引起麻木,使人無法感覺到疼痛,因此人們會意識不到他們拿著的鍋是滾燙的,或者昨天他們腳上被玻璃紮傷的地方現在已經嚴重感染了。由於沒有疼痛感提供的重要資訊,這些麻風患者無法避免自己受傷,身體會慢慢受損。

安慰劑效應也體現了心智影響疼痛的力量,對疼痛減輕的預期能夠減輕多達50%的痛感。事實上,對流行藥物的很多研究顯示,它們並不比糖丸和樂觀精神的組合更有效,這些藥物包括緩解疼痛的泰勒諾(Tylenol)或撲熱息痛,治療輕度抑鬱的百憂解、鬱複伸(Effexor)或帕羅西汀。充滿希望的預期意味著任何治療或多或少都會有效,這有助於解釋為什麼從靈氣療法到反射療法等各種替代療法會取得成功。

“反安慰劑效應”

神經成像研究顯示,疼痛有兩個不同的組成成分,即感覺成分和情感成分。感覺成分代表了真實的組織損傷和燒傷、割傷、抽動方面的疼痛。情感成分是疼痛會引起的不適、厭惡或不快情緒。身體損傷與心理不適之間的脫節意味著別人的痛苦就是未解之謎。痛苦,就像所有的體驗形式一樣,是來自內部的感受,其他人根本無法觸及。當然,這並不妨礙人們試圖理解別人什麼時候可能會感到痛苦。

模擬與推理(simulation and theorizing):理解他人的兩個途徑

第一種途徑可以用“珍妮佛喜歡吃醃制沙丁魚嗎”這個問題來說明。即使對珍妮佛完全不瞭解,你也有可能得出這個問題的答案,你會根據自己是否喜歡吃醃制沙丁魚來給出相同的答案(例如“不喜歡”)。你通過“模擬”來理解珍妮佛的想法,把自己的感受(例如我不喜歡沙丁魚)作為他人感受的替代品(例如別人不喜歡沙丁魚)。

第二種途徑可以用一個略微不同的問題“奧爾佳喜歡吃沙丁魚嗎”來說明。這次,你的回答可能不一樣(例如“喜歡”),因為“奧爾佳”這個名字像一個神秘的外國人的名字,他可能喜歡吃黏糊糊的醃制魚。你通過“推理”來理解奧爾佳的想法,這回不同於運用你的想像,你會運用關於其他人心智的已知理論,比如“俄羅斯人通常喜歡吃奇怪的食物”。

如果某人與你相似,那你就可以通過你的感受瞭解他們的感受(模擬);但如果他們不像你,那麼你最好依靠明確的理論來解釋他們的行為(推理)。這種區分方式的一個小問題在於人們通常假定別人和他們類似,除非有很好的理由證明情況正相反,這進一步增加了運用類比的範圍和頻率。

模擬不僅比推理更容易,而且人們喜歡圍著自己思考。我們都認識一些過於關注自己而忽視了其他人的人。

模擬有時會讓我們犯錯,但與推理不同的是,它使我們更多地關心他人的心理狀態。推理運用的是不帶感情色彩的關於刺激與反應的理論 — — 如果受到電擊,就會感到疼痛,而模擬是用我們自己的感受來預測別人的感受。從心智知覺的兩個維度來看,模擬的基礎是我們自己的感受性(感覺到疼痛),而推理的基礎是我們的能動性(推理出疼痛)。

正是模擬使我們產生了共情(empathy)。長期以來,人們設法準確地定義共情,明確它是否不同於同情或憐憫(sympathy or pity)。

共情其實就是“感同身受”,它清楚地表達了分享他人感受的概念:當別人受傷時能感覺到他們的疼痛;當別人受到輕視時能感受到他們的憤怒;當別人在重要的發佈會上出醜時,能感受到他們的尷尬。思想家布萊斯·巴斯卡(Blaise Pascal)的話解釋了共情的含義,他說:“我們不僅用理性去瞭解真相,而且會用到感情。”共情不僅超越了冷靜地認識到他人的痛苦,而且與他們一起受苦。人都不喜歡痛苦,因此共情促使我們幫助他人減輕痛苦。這就是為什麼慈善活動不會只是報告統計數字,而是會展示孤兒悲苦的眼神,這樣我們會和他們心靈相通,對其痛苦感同身受,然後慷慨解囊。

通過網路電話或普通電話進行交流當然沒什麼問題,但身體靠近在增進彼此的關心上具有獨特的作用。當你的搭檔被解雇了,你在很遠的地方也可以感受到他的痛苦,但當觸摸到他的眼淚時,你會真正地感同身受。

當生活在關係親密的小團體中時,人們之間會產生共情,我們會最關心那些我們親眼所見的熟人的痛苦,因為模擬與我們類似的人的思想和情感是較為容易的。這種共情不太適合現代社會,在現代社會中,最需要幫助的人通常與我們的種族不同,而且生活在遙遠的地區。

表現得脆弱、容易受傷害也是激發共情的一種方法。“同情崩潰”的研究中,心理學家達里爾·卡梅倫(Daryl Cameron)和基斯·佩恩(Keith Payne)讓被試面對1個或8個痛苦的受害者的乞求。儘管從客觀上說,8個受害者的痛苦總量更大,但人們被這些痛苦壓垮了,對其表現出的同情反倒更少。一隻將死的小狗令人難過,而如果一足球場裡都是將死的小狗呢?比逃避更極端的情況是,超負荷的共情會使我們希望別人死掉。

從感受者轉變為行動者

醫生當然非常想幫助患者,但醫學訓練教導他們要不帶感情,這樣才能進行理性的思考。太多的同情或悲痛會干擾客觀的臨床判斷,也會造成情緒倦怠。因此醫生信奉麻木,不動感情,尤其是專業外科醫生,可以說患者的生命就掌握在他們手中。在手術室裡,當外科醫生在處理患者身體的小細節時,患者的想法和情感對醫生來說是無關緊要的,甚至醫生對此是無動於衷的。這就是為什麼外科醫生會用一張床單把患者蓋起來,只把邊長約2.5釐米的正方形大小的相關手術部位露出來的原因。在準備切開患者的身體時,如果醫生看到患者脆弱的臉,他很可能會下不去手。

不是所有的醫生都是外科醫生,如果有內科醫生應該關注患者的想法和情感的話,那就應該是精神病醫生。“精神病學”一詞的詞根是psyche,這個希臘詞的意思是“靈魂”或“精神”。從歷史上看,精神病學家,包括卡爾·榮格和佛洛德,都採用的是心理學和哲學的方法。

近期神經生物學的發展轉移了人們的注意力,人們不再關注人類的痛苦和情感,轉而關注能夠影響大腦回路和神經遞質的藥物。湯瑪斯·薩斯(Thomas Szasz)則認為精神病學過於機械化,對待患者就像對“出故障的機器”一樣,並沒有把他們當成有感覺、有情感的人。治療心智的內科醫生竟然不把他們的患者看成是心智俱樂部的成員,這豈不是很矛盾!

“談話療法”的效果和藥物治療的效果一樣好,甚至能導致相同的大腦改變。所以,當一位感到鬱悶或焦慮的朋友來向你傾訴時,你務必認真傾聽,把他們既作為受體又作為主體來尊重。

為了重建能動性,患者需要成為照顧別人的人,使能動性變得更富有自信和個人力量。無論是戒酒還是戒賭的12步計畫,其中都包含發起的步驟,即資深成員做新成員的指導者,這並非巧合。通過承擔指導另一個人的責任,你可以突破受害者的外殼,從心智知覺斷層線的一側轉移到另一側。幫助他人會把你從易受傷害的感受者轉變為有思想的行動者。

道德定型(moral typecasting)

作為道德受體,能動性似乎會降低;作為道德主體,感受性會降低。

如果我們把他人或自己看成是易受傷害的感受者,就很難將其看成是有思想的行動者。如果我們把他人或自己看成是有思想的行動者,就很難將其看成是易受傷害的感受者。能動性和感受性之間這種相反的關係被稱為道德定型(moral typecasting)。道德定型反映了我們探討的心智知覺斷層線,就是將心智俱樂部一分為二的界線,把人分為有思想的行動者和易受傷害的感受者兩部分。

道德定型: 我們要麼把人看成感受者,要麼把人看成行動者。一個人可以是道德主體或道德受體,但不能兩者都是。

圖4–3 或者是兔子或者是鴨子,不能兩者都是

道德定型是適用于道德和心智知覺的一種現象:當你認為某人是道德主體時,你就看不到他們的感受性;當你認為某人是道德受體時,你就看不到他們的能動性(見圖4–4)。

圖4–4 道德定型

鑒於道德(主體與受體)與心智知覺(能動性與感受性)之間的密切關係,道德定型意味著主體被認為很有能動性,但非常缺乏感受性。定型還意味著受體被認為很有感受性,但非常缺乏能動性。當然,不同於圖4–3,人們的知覺很少是全有或全無的,但道德定型暗示著英雄和惡棍似乎對痛苦相對地不敏感,受害者似乎相對地不具有承擔責任的能力。

英雄和惡棍似乎對痛苦不敏感,所以我們好像不必在意對待他們的方式。我們要求非常邪惡的罪犯受到相應的嚴厲懲罰,即不僅彌補他們的罪行,而且要壓過他們的強硬性,讓他們遭受足夠的痛苦。所以我們會強硬地對待很殘忍的人,這並不奇怪。但有時我們似乎也沒有善待我們所敬仰的人,很容易忘記英雄做出的犧牲。我們忽視父母的情感、導師的辛苦和領導者的痛苦。

道德主體似乎不會成為易受傷害的感受者,這是道德定型的首要原則。道德受體似乎不會成為有思想的行動者,這是道德定型的第二條原則。

定型是這種制勝之策的基礎。當某人被認為是受傷害的道德受體,即易受傷害的感受者時,我們很難同時把他或她看成是應該為錯誤的行為負責的道德主體。這就解釋了為什麼被告在審判中經常會證明他們在生活中遭受過痛苦或虐待。

定型最令人奇怪的地方是強調過去的善行反倒適得其反,至少在負罪的時候是這樣的。一方面,過去的善行強化了能動性、責任感和控制力,這解釋了為什麼我們很難寬恕牧師和總統的錯誤行為。另一方面,受害者把自己變成無可指責的道德受體的現象,解釋了為什麼我們會低估被虐待者、長期生活在恐懼中的人的罪行。從這種意義上說,儘管善好像是惡的對立面,但主體與受體之間的心智知覺鴻溝形成了與此不同的道德圖畫:善與惡都是受害的對立面。做善事的人變成惡棍或受害者變成受益者是比較容易的,但受害者變成惡棍或惡棍變成受害者則難得多,至少在其他人看來是這樣的。

在所有的心智慧力中,感受痛苦的能力是進入心智俱樂部的關鍵條件。能夠感受痛苦的存在體是道德受體,應該享受道德權利。不幸的是,在所有的心智慧力中,感受痛苦的能力可能是最神秘的。為了理解這種極其隱蔽的感受,我們需要依靠對他人心智的模擬和推理這兩種方法,但它們都存在缺陷。

被視作行動者和被視作感受者之間的對立關係源自道德定型,我們傾向於把別人看成要麼是道德主體,要麼是道德受體。被定型為受體有助於我們逃避指責,迫使他人保護我們。但是這也會把我們變得軟弱,甚至縮短我們的壽命。道德受體不僅是道德主體的自然補充,而且為理解道德分歧提供了一種有效的方法,因為任何地方的人都會把不道德行為與感知到的傷害聯繫起來。

當這種隱秘心智受苦時,我們會冷漠地聳聳肩,甚至願意看到他們受折磨,他們就是我們的敵人。

--

--

Vincent Chen-WS
Vincent Chen

喜歡閱讀科普、心理、網路治理、哲學宗教等書籍