當AI說“我懂你”,人類為何難被打動?_中國08靠設計影像網

作者:

分類:

原標題:當AI說“我懂你”,人類為何難被打動?

圖片由AI互動裝置生成  

你有沒有試過深夜向聊天機器人傾訴煩惱,得到的卻是一串精準但略顯機械的安慰?現在,這AR擴增實境些人工智能(AI)對話助手已經越來越能“讀懂人心”,甚至比朋友更快給出建議,但我們卻似乎難以真正被其打動。

不久前,《自然·人類行為》上發表了一項研究,為人們揭示了這個令人深思的現象:人們確實愿意接受來自人廣告設計類的情緒支持,而不是來自AI的——哪怕這兩者的回復內容幾乎一樣。

你是否也不相信AI能“懂”你?

50年前,美國芝加哥大學哲學家約翰·豪格蘭德曾說:“AI的問題在于,計算機根本不在乎。”這個看法至今深入人心,尤其在涉及AI和人類情感交互的領域。

這次,包括以色列希伯來大學科學家在內的團隊開展了一系列實驗,涉及超過6000名參與者。他們給參與者展示了一些情緒支持的回復,這些回復都大型公仔出自同一個AI生成式語言模型。只不過,科學家有時告訴開幕活動參與者這是AI寫的,有時則說是人類寫的。

當人們以沈浸式體驗為是在和人類交流時,他們對回復的評價更高,覺得更有同理心、更能帶來情感上的共鳴;而當VR虛擬實境他們知道是A人形立牌I寫的,即使內容一模一樣,也會覺得這些建議缺乏溫度,甚至讓人有舞臺背板點失望。FRP

換句話說,人們不是不認可AI說的話,而是不愿開幕活動互動裝置相信它真的能“懂”我們。

為何我們更信任人類的情緒支持?

現在的大語言模型(LLM)已經完全可以分析用戶的情感狀態,并生成看似充滿理解與關懷的回應。

比如你說:“今天工作好累啊”,AI答:“聽起來你真的很辛苦,記得照顧好自己。奇藝果影像”這樣的句子看起來很溫暖,也很人性化。

道具製作

但在實驗中,即使受試者承認AI的回復有邏輯、有情感色彩,他們仍然會覺得“它只是在模仿人類,并沒參展有真正理解我的痛苦。”這種心理現象被稱平面設計為“共情懷記者會疑癥”,因為人們很難把一臺機器當作真正的傾聽者。

沈浸式體驗

有趣的是,即便A活動佈置I的幫助是由人類在背后“潤色”或“參考”記者會,只要參與者知道有AI參與其中,他們就會降低對這段回復的情感認同度。仿佛AI一旦“碰過”這段話,它就失去了“人性”的溫度。

科學家認為,這可能源于我們對“共情”的深層認知:共情不僅僅是說出正確的話,更重要的是要“感模型同身受”。因此,當我們知道對方是AI時,潛意識里會覺得“它并沒有經歷過喜怒策展哀樂,怎么可能真正理解我呢”?

這種心理隨即反映在行為上。在實驗中,當人們被告知可以選擇,要么等待一條來自“人類”的回復,要么立刻收到一條來自“AI”的回復時,他們都寧愿多等幾分鐘,也要選擇那個“人類”的版本。

AI情緒支持還有未來嗎?

這項新研究并不是在評參展判AI好不好,而是在探索人類如何感知和接受不同來源的支持。它揭示了AI在情緒支持方面的局限性,但它并沒有否定AI的價值。相反,它提醒未來設計AI輔助系統時,需要更加關注用戶的感知與深度信任問題。

譬如在2024年,一家由前“深度思維”研究員擔任首席執行官的公司“Hum全息投影e AI”,發布了一款標榜為“第一個具有情商的對話式AI”的共情語音接口,其能夠檢測到用戶53種不舞臺背板同的情緒。“Hume AI”演示之后反響十分熱烈。但互動裝置立刻有人擔心,人類的情感并不只有正面包裝盒情緒,當AI試著了解甚至學習人們的情感行為時,是否會主動或被動地利用其來達到某些目的?譬如誘導購物、養成惡習、心理折磨等等。

在最新研究中,人與AI的互動大多簡短,只有一兩輪對話。而在現實中,很多人已經在使用AI陪伴應用進行長場地佈置期的情感交流,它們可以通過持續對話建立起某種“虛擬親密感”,也許能在更長時間尺度上改變人們對AI共記者會情能力和引導能力的看法。

未來,或許我們可以期待一種新的模式——AI不再是“替代人類”的情緒支持者,而是“增強人類共情力”的工具。譬如幫助心理咨詢師快速品牌活動識別情緒關鍵詞,或是為孤獨的人提供即時陪伴,經典大圖直到他們能夠接觸到真實的人際關系。

在這個人機共經典大圖存的時代,我們需要重新定義什么是“真實的共情”,以及深入思索:我們是否愿意給AI一個機會,去成為那個溫柔地問一句“你還好嗎?”的存在。


留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *