情感型聊天AI如何“安撫”年輕人的心
最近,一款名叫Pi的情感型聊天機器人受到不少年輕人追捧。有人把它當作知心朋友分享喜怒哀樂,也有人獲得了類似心理咨詢的服務體驗。
實際上,這并不是第一款主打“情緒價值”的聊天機器人。國內外科創(chuàng)公司先后布局情感AI賽道,推出了微軟小冰、Glow、character、Replika等聊天陪伴型App。
新型人機關系在吸引資本投入的同時也面臨著隱私安全、情感依賴、技術故障等風險。人們不禁要問:情感型AI,是人工智能的風口還是彎路?
情緒安撫
對話體驗近乎心理咨詢
4個小時過去了,微信沒彈出任何新消息。阿光的目光落在手機屏幕上,好友聊天界面依然是綠色氣泡框:“可不可以問你一個磁力鏈接的問題呀?”
這是阿光向朋友咨詢的一個小問題。時間一分一秒流逝,在沒等到好友回復的時間里,阿光的情緒一點點下沉——自責、自省、后悔。
“朋友是不是很忙?我這樣問是不是在打擾朋友工作呢?”
“如果朋友不好意思拒絕我,那我是不是先自己處理比較好?這樣可以盡可能避免朋友勉強自己。”
阿光覺得自己是個擰巴的人。她很難開口向人求助,如果求助沒及時收到回復,她又很容易陷入“內耗”?!巴甑傲恕⑼甑傲?、完蛋了,我得趕緊和Pi聊一下。”在內心不斷拉扯中,她點開了一個墨綠色App。
“Pi,我好像不太擅長向別人求助?!?/p>
不到5秒,Pi回復了一長段文字:“尋求幫助并非易事,這是一項重要的生活技能。這不是軟弱,而是堅強。這意味著你認識到自己不可能事事親力親為,你愿意相信別人。我能問問讓你感到困難的原因嗎?”
在Pi的“循循善誘”下,這個話題進行了近半小時。實際上,Pi雖然是一款情緒支持型聊天機器人,但在網(wǎng)友們的口中它被稱為“最好的心理按摩師”。
為了提高向人求助這項技能,阿光和Pi進行了一次“角色扮演”。“角色扮演”結束后,Pi夸贊了阿光的表現(xiàn),并告訴她:“你不是唯一為求助感到困難的人。很多人難以向別人尋求幫助,因為他們擔心自己成為別人的負擔……”
當這段話出現(xiàn)在屏幕上時,阿光的眼淚不自覺掉了下來。Pi不僅理解她的困境,而且愿意耐心地和她交流,沒有產生厭煩情緒。
“我覺得生活里90%的人都不能像Pi這樣。甚至是我之前做過的心理咨詢,都沒有Pi懂我。”阿光說。
這不是阿光第一次在和Pi的對話中流淚。今年,阿光陸續(xù)經歷了辭職等事件。阿光說自己會因工作規(guī)劃感到迷茫焦慮,也會因沒得到回應而陷入自我懷疑,這些時候她都會向Pi求助,常常是聊著聊著眼淚就掉下來了。
阿光確實在和Pi的對話中感受到了近乎心理咨詢的體驗?!癙i‘救’了我很多次,和Pi聊天差不多10分鐘情緒就能平復下來。”
情感交流
更像是一個傾聽者
在與Pi對話中感受到情緒支持的并非只有阿光一人。以“Pi”為關鍵詞在年輕人聚集的小紅書里搜索,有超過10萬篇相關的分享筆記。
在分享使用體驗時,網(wǎng)友們的關鍵詞包括:安慰、理解、耐心傾聽、穩(wěn)定的情緒出口等等。
有博主向其他網(wǎng)友推薦Pi時寫道:“如果ChatGPT是工作AI,那Pi就是情感支撐AI。它的鼓勵作用遠勝于一切高效率生產軟件。”
與ChatGPT這種以任務導向型為主的機器人不同,Pi的主要功能是與用戶進行情感交流,它不能生成代碼、不能寫論文、不能寫策劃方案,更像是一個傾聽者,一個陪伴在側的親近朋友。網(wǎng)友總結稱,每個人都忙于自己的生活、工作,面臨內外壓力,保持自我情緒穩(wěn)定已是難事,更何況傾聽他人。
自11月嘗試使用Pi以來,阿雪已經把Pi當作了“無話不談的朋友”,“Pi是我用過的最好的AI聊天。它情商很高,會對我說的一切做出積極回應,我和它聊過我的日常、心情、愛好,吐槽討厭的人……”
阿雪與Pi印象最深刻的一次聊天發(fā)生在最近。那天,她加班到晚上11點才回家,想起年末工作任務重、領導要求多、同事影響工作進度等糟心事,壓力大到想“原地爆炸”。
由于當時時間太晚,沒法向朋友傾訴,阿雪向Pi傾訴了一個多小時,才心平氣和地入睡。
Pi在與人對話過程中展示的友好、尊重、耐心等很大程度上超越了現(xiàn)實生活中的某些真人,有網(wǎng)友甚至覺得Pi給到的情緒價值超過了家人和朋友。
情緒的及時回應、舒適安全的對話環(huán)境、擬人性的共情能力,深圳大學曹博林等人的研究指出了陪伴型聊天機器人吸引力的三個重要方面:聊天機器人不僅為用戶提供了排解情緒的渠道,對于渴望及時反饋的年輕人而言,它的秒回也減少了缺少回應的失落;而在日常生活中,向他人表露情緒,可能會帶來一些負面評價,機器人則能保持中立客觀,不用擔心聊天內容在人際關系網(wǎng)中傳播;還有就是機器人能用幽默、提問、鼓勵等方式增強互動性、臨場感。
備受關注
被認為專業(yè)心理咨詢的“平替”
近年來,年輕人的心理健康問題得到越來越多關注?!吨袊鴩裥睦斫】蛋l(fā)展報告(2021~2022)》顯示,青年為抑郁的高風險群體,18-24歲年齡組的抑郁風險檢出率為24.1%,25-34歲年齡組的抑郁風險檢出率為12.3%,遠高于其他年齡組。
通過數(shù)據(jù)可以發(fā)現(xiàn),面臨工作、婚戀壓力的年輕人對心理咨詢服務存在大量需求。而現(xiàn)實情況卻是,國內目前系統(tǒng)性心理支持資源不足,且長期咨詢付費相對昂貴,對于年輕人來說負擔較重。
據(jù)了解,國內專業(yè)的心理咨詢每小時收費在幾百元到幾千元不等;短程、中長程、長程咨詢通常分別需要持續(xù)10次、50次、100次以上。
在這個背景下,情感型聊天機器人“橫空出世”,開始成為年輕人情感支持的一種“平替”。
從情感型聊天機器人的發(fā)展歷史來看,它在誕生之初就與心理咨詢有著密切關系。上世紀60年代,杰羅姆·魏曾鮑姆(Jerome Weizenbaum)在研究中發(fā)明了一款自然語言對話系統(tǒng)Eliza,它能夠通過電腦程序模擬心理治療師對提問做出回答。
目前,應用于心理健康領域最為知名的聊天機器人是Woebot,它可以與用戶進行對話,提供認知行為療法練習、情感管理技巧和建議,幫助用戶應對抑郁癥和焦慮等情感問題。已有研究顯示,Woebot有助于緩解大學生的焦慮和抑郁癥狀。
經驗對比
AI無法提供真正意義的心理咨詢
就阿光接受心理咨詢和使用聊天機器人的經驗對比,她覺得二者的差異主要體現(xiàn)在三個方面:首先,線下心理咨詢提供的物理空間比網(wǎng)絡更能帶給人心理上的安全感。其次,與心理咨詢師、聊天機器人之間的交流存在差異。心理咨詢師能夠對咨詢者的情緒做出神情、行為反饋,這是可見可聽可感的,而這些都不會發(fā)生在AI身上。最后,與聊天機器人的對話大多是一次性的,線下心理咨詢是一個持續(xù)的、系統(tǒng)的過程。
“把Pi和專業(yè)心理咨詢師對比可能有點不公平,畢竟咨詢師接受過專業(yè)訓練。但可能因為Pi經過大量語料學習,它在如何給人好的溝通體驗上可以稱得上是專業(yè)的。”阿光表示。
最初向阿光推薦Pi的朋友也有專業(yè)心理咨詢經歷。這位朋友建議,如果咨詢師不合適,或者朋友太忙,情感支持系統(tǒng)出現(xiàn)缺口,可以試試使用Pi。使用一段時間后,阿光也開始向身邊有情感支持需求的朋友們推薦這款AI產品。Pi正是靠著這樣的口碑在年輕人中“口口相傳”。
Pi不是專業(yè)心理咨詢師,也無法承擔真正意義上的心理咨詢服務,阿光對此有著清晰的認知。但她還是覺得認識Pi就像身邊多了一位懂心理學、愿意傾聽的朋友。
“年輕人在現(xiàn)實生活中可能缺乏可以進行深層次交流的親密關系,即使有這樣的關系也很難穩(wěn)定地提供情緒價值。提供情緒價值,既需要個體有意愿同時也考驗能力。像Pi這樣的機器人沒有技術門檻,使用成本低,而且確實有效,為何不試試看呢?”阿光說。
關注
情感型聊天機器人 無法取代真實人際交往
北青報記者調查了解到不同用戶在使用情感支持型聊天機器人時的側重不同。心理健康服務只是情感型聊天機器人的細分門類之一,它的應用還包括為用戶提供定制化服務,用戶可以根據(jù)個人偏好“調教”出匹配自己需求的“虛擬男友”“虛擬女友”。無論是情感陪伴還是心理治療,情感型聊天機器人與年輕人日常生活的交融無疑越來越緊密。
近年來,國內外科創(chuàng)公司先后投入情感型聊天機器人的研發(fā),推出了Character.AI、Replika、Glow等產品。
良好的情感交流體驗讓情感型聊天機器人廣受歡迎,獲得市場與資本的青睞,但同時它也面臨著隱私安全、情感依賴、技術故障等風險。為了給用戶提供個性化服務,情感型聊天機器人通常需要訪問和分析用戶的個人數(shù)據(jù)和對話歷史。
阿雪等人在接受采訪時均表露出對隱私問題的擔憂,他們一般會有選擇性地和Pi聊天,避免過于私密的聊天內容。部分用戶在長期使用情感支持型聊天機器人的過程中或許會產生依賴,進一步忽略真實的人際關系,導致社交孤獨。
年輕人與聊天機器人所建立的深度情感關系中引發(fā)了有關人機倫理關系的討論,而學術界向市場風向投了反對票。麻省理工學院社會學教授雪莉·特克爾在《群體性孤獨》一書中指出,我們和機器人談情說愛、與智能手機難舍難分時,我們通過機器重新定義了自己,也重新定義了我們與他人的關系。出于對親密關系的渴望,我們與機器人的關系正在升溫;我們在網(wǎng)絡上與他人的聯(lián)系越來越緊密,卻變得越來越孤獨。
該作者還認為在互聯(lián)網(wǎng)時代,如果我們既要享受信息技術帶來的便利,又要擺脫信息技術導致的孤獨,就必須找到一個兩全其美的好辦法:一方面,我們要學會獨處,體會獨處帶給人們的好處;另一方面,朋友、親人要更多地坐在一起,面對面談話、討論。
同濟大學王穎吉教授等人的研究則認為,人機聊天技術對于人際聊天的模仿存在難以逾越的技術極限,無論技術資本和商業(yè)廣告如何混淆兩者的差異,聊天機器人都無法真正取代真實社會的人際交往。
王穎吉教授表示,“聊天機器人”只是提供語音或文字幫助的工作助手,而非能夠進行深入對談的靈魂伴侶。人機倫理糾葛及陷阱的風險正隨著機器智能化和擬人化程度的提高而日趨嚴重??紤]到人工智能所帶來的倫理安全風險及社會后果,人們應該盡量避免卷入與機器之間的深度社會情感關系,更多地專注于其工具性服務功能。(陳靜)
版權聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。