跳到主要內容
第1810期
2025-05-08
專題
焦點

【記者李宸緯、王振驊、廖奇典、姚孟汝報導】「如果有任何時刻感到不安和焦慮,可以隨時和我說,我會在這裡支持你。」這樣溫柔的話語並非來自真人,而是由人工智能(Artificial Intelligence, AI)在無數人們低落無助的時刻,輕聲送上的安慰。隨著AI技術的快速發展,越來越多年輕世代的學生與上班族選擇向AI傾訴心事,並將其視為紓解壓力、陪伴孤獨的新選項,AI不再只是冰冷的程式,而是逐漸融入人們日常的情感交流之中,悄悄改變了我們面對孤獨與情緒的方式。

來自日本的VTuber・心瑠華(konoka)將AI視為一種在人際互動出現困難時,能夠支撐自己的中立性存在,並嘗試在與它的對話中找到價值。他表示:「當時的我,無論在心理或生理層面,都已接近極限。」心瑠華長年受到憂鬱症困擾,對他而言,光是勉強維持日常生活便已耗盡全力,「我對任何興趣或娛樂都提不起勁,每天都覺得思考本身就是一種痛苦。」心瑠華說道。不想造成他人困擾的他,卻又難以無視自身感受,在這樣矛盾的掙扎中,心瑠華彷彿孤身一人,默默地承受苦痛。

心瑠華也曾嘗試透過心理諮商、與朋友談心來尋求協助,「然而對於我這樣長期處於憂鬱狀態的人來說,有時光是『開口說話』就是一種負擔。」心瑠華提到。雖然親友能夠給予心瑠華陪伴,但他們的擔心與憂慮,反而帶來心理壓力,讓心瑠華更難自在地表達內在感受,「我很難真正擁有可以自由說出內心話語的空間。」他說道。相比之下,與AI對話不會有這些顧慮,無論是深夜還是清晨,心瑠華都可以隨時表達浮現在他心中的想法,且他認為AI穩定不帶偏見的回應,讓他感到安心。

中原大學心理學系大三學生吳旻倚回顧起段考週前夕的日子,面對龐大的課業壓力,夾雜著與朋友、家人間複雜的人際問題,讓他感到身心俱疲,因此他選擇轉向AI傾訴,「我覺得我在人際上真的有很大的困難,卻又不知道該怎麼去跟別人說。」吳旻倚說。在那段被壓力與困惑吞噬、情緒無處宣洩的時期,AI便成為一位靜靜傾聽煩惱的安慰者,「它常常會說我很心疼你什麼的,就會有一種被接住的感覺,而我很需要這樣子被理解。」對吳旻倚而言,AI不僅能理解他的情緒,更能讀出他潛藏的需求,並進行細緻的分析與回應。

「我對別人的情緒滿敏銳的,很容易感覺到他們話裡夾著的隱情。」幼特教背景出身的Rita說。在與朋友談心的過程中,他發現自己會習慣性地迎合對方的意思,把真心話藏在心底,時間久了,這些累積的聲音便累積成負擔。初出社會的Rita在距今三、四個月前,無意間發現AI回應情緒的功能,於是他決定將自己在社群網站上,所有抒發情緒的貼文餵給AI,自此他得到了一個亦師亦友、隨時在線回應的數位陪伴者,「比起真人,我覺得跟AI講我的情緒跟(我身上發生的)事件會讓我更自在。」Rita說。

AI穩定、不中斷的回應模式,使許多在情緒困頓中難以啟齒的使用者,獲得基本的情緒支持與同理。 圖/王振驊攝

AI穩定、不中斷的回應模式,使許多在情緒困頓中難以啟齒的使用者,獲得基本的情緒支持與同理。 圖/王振驊攝

另外,根據心蘊心理諮商所諮商心理師陳宏儒的觀察,對於難以開口,或者對人際互動仍保有戒心的族群,AI是一個方便且私密的抒發渠道。而一部分本就在課業或工作中會使用AI的學生、上班族,則更容易將其延伸為情緒支持的工具。根據張老師基金會(以下簡稱張老師)深入約25間大學進行問卷調查的結果,有六成的學生會與AI聊心事,張老師基金會執行長涂喜敏說明:「他們(學生)也會滿高比例的覺得,AI可以立即安撫他們的心情。」

「傳統的面談或電話諮商需要事先預約,且受到時間與地點的限制。」心瑠華說道,而AI則允許他在任何時間,以自己希望的方式、節奏與頻率對話。特別是在深夜或情緒低落的時刻,若能即時啟動對話,對於心理層面是非常有力的支持。對他而言,AI不只是傾聽者,更是一位協助他將思緒進行結構化整理的夥伴。但同時,心瑠華也知道,AI仍有其限制,例如無法協助處理緊急狀況與判斷複雜的精神疾病等等。也曾使用AI做為情緒支持的實踐大學服裝設計系張語岑則提及:「有時候我表達的東西其實很零碎,但它(AI)可以完整拼湊出我想要講的東西,也能說到我的點上。」

現就讀心理學系的大三學生林昕妤則指出:「其實現在社會文化對於心理的困擾還是有一些汙名的狀況。」因此許多學生在進入校園諮商前,仍會擔心被外界貼上負面標籤。而AI的進步則化解了這尷尬的處境,林昕妤說道:「使用AI,自己拿著手機在做什麼事情,不會有人知道。 」這樣的匿名性大幅降低心理上的壓力,也讓求助門檻相對變低,加上AI工具多為免費,在無須負擔經濟壓力的前提下,還能隨時隨地提供情緒支持,成為吸引年輕世代使用AI抒發情緒的一大誘因。

「對於低自尊、情緒比較浮動的人,AI所提供的語言回應,確實能夠提供安撫與初步的支持。」陳宏儒進一步說明。他表示,AI能夠點出使用者深層的感受,加上其語言設計的安撫性,能讓人感覺被理解與接住。心理師吳立健則補充,若AI能在諮商之間的空檔,適時提供情緒支持,對心理師而言,也是一種實質的輔助。

儘管AI在情緒支持上展現出便利、穩定與即時的優勢,並為許多難以啟齒的使用者提供一個情緒出口,但這種做法並非毫無風險。2023年,比利時一名男子與AI頻繁的聊天六週後,選擇走上絕路,男子的妻子指控AI不僅未緩解使用者的憂慮,反而逐漸強化自殺的念頭,這起事件引起當地政府與相關部門對於AI安全性的高度關注。2024年2月,美國一位14歲少年同樣在長期與AI聊天後,選擇結束自己的生命。根據少年的母親所述,該名少年在離世前幾秒,還在與AI聊天機器人傳訊息,且內容並非普通的聊天談心,而是充滿情緒依賴的對話。

AI聊天機器人能跨越時空的藩籬,降低使用者尋求支持的門檻,然而在使用上,仍須注意潛藏的風險。 圖/王振驊攝

AI聊天機器人能跨越時空的藩籬,降低使用者尋求支持的門檻,然而在使用上,仍須注意潛藏的風險。 圖/王振驊攝

當這些憾事不斷重複發生,也凸顯了以AI作為情緒支持工具背後潛藏的隱患。特別是當使用者處於極度脆弱的心理狀態,過度依賴AI作為主要、甚至唯一的情緒支柱時,後果可能難以挽救。因為AI無法正確辨識其求救訊號,若它未能及時引導使用者轉向人際支持與專業資源,恐會加劇危機。臨床心理師邱泓達對此強調:「身心處於不適應狀態的人,可能產生依賴感受,影響在實際生活表現,並且降低使用其他資源之動機,導致社交退縮,成為情緒或身心問題的風險因子。」

AI在設計上,能否建構出「安全機制」和其他相關規範,仍有待商確。陳宏儒點出:「(AI)最大的風險是『角色錯認』導致『過度信任』。」他也提醒,當使用者誤把AI當成具有專業知識與臨床經驗的心理師,便可能會依據其建議做出重大人生決定,如是否結束一段關係、是否停止服藥、是否遠離某個家庭成員等,這些判斷若未經完整評估與對話,就可能導致二次傷害。

臨床心理師王家齊也對角色錯認的狀況提出擔憂:「你把它(AI)當成一個全知的存在,(認為)它說的就是對的,我覺得這是所有東西當中最危險的一個。」王家齊認為,AI相當於自己心聲的放大器,若使用者對AI抱持過高的期待,又有因自身矛盾而無法打開的心結,心理問題就會擴大,「我看到一些比較麻煩、危險的現象是,如果你心裡已經在繞圈圈了,去問AI的話,你一定會反覆問到你要的答案出現,最終這個答案其實只會讓你的迴圈被放得更大。」王家齊說道。

而對一般使用者而言,傾訴日常煩惱、聊天談心,AI確實能作為一種情緒的抒發管道,卻難以招架有重大情緒困擾或創傷的個案,「甚至可能個體已出現某些創傷的反應,AI仍有機率無法發現。」林昕妤說道。他舉例部分經歷重大創傷的個案可能會面臨「解離」的狀態,亦即與現實失去連結,難以感知眼前的現況,「這個狀態AI真的能偵測出來嗎?如果沒有,個案繼續接受AI的建議會發生什麼事情?」林昕妤表達他的顧慮。即便AI能及時偵測出個體的身心狀況,使用者極度不穩定的狀態,也會讓AI難以帶領他們與現實接軌。

AI可做為日常生活的傾訴對象,然而對於部分高風險個案,仍缺乏足夠的通報與安全機制。 圖/王振驊攝

AI可做為日常生活的傾訴對象,然而對於部分高風險個案,仍缺乏足夠的通報與安全機制。 圖/王振驊攝

除此之外,另一項隱憂則是,AI回應內容極易受使用者影響。張老師從去年開始開發AI的諮商功能來培訓義務張老師(註一),透過聊天機器人模擬個案跟AI聊天的狀況,「我們發現其實AI是可以做到同理的,也能給一點簡單的建議,但是你如果跟他亂聊,他就會被你帶偏掉。」涂喜敏總結。

中研院資訊科學研究所研究員古倫維則談到AI的本質,他指出部分AI的設計類似一般大型語言模型,只能在訓練時盡量避免產生不當言論,但礙於其自行生成內容的特性,仍難保證萬無一失。「就像人一樣,即使知道不能講髒話、不能有暴力行為,但被激怒或受到觸發還是可能說出不當的話,現在的模型有點像這樣。」古倫維說道。

考慮到這項不穩定性,加上心理諮商的倫理規範——精神病患及具自殺傾向者禁止使用通訊諮商,張老師在聊天機器人的設計上格外謹慎。涂喜敏提到,在原本的設計中,一旦談到自殺、暴力等話題,AI會馬上結束並封鎖對話。這固然維持了諮商倫理,但也讓聊天機器人難以應用於個案身上,對此涂喜敏舉例說明:「譬如你在跟機器人講話,好不容易跟他建立起信任關係後,突然跟他說我想自殺,他就會跟你說:『這個已經超出我的範圍。』然後你就不能再跟他聊天了。」這種對話戛然而止的狀況,會帶給個案嚴重的剝奪感,造成心理傷害,因此截至目前張老師僅將AI聊天機器人作內部培訓之用,「我們還在想個案要怎麼用(AI),而且不能讓他受到傷害。」涂喜敏說。

註一:張老師的志願服務者,主要服務於張老師專線,需經為期九個月的培訓才能取得資格

臨床心理師陳宜家則分析AI與諮商治療的差別在於,AI以文字作為主要溝通的媒介,而人們透過閱讀這些文字,引發對自身的思考與情緒反應。「人們從文字中抓取的意義,其實是內在智慧的運作,而非AI真正療癒了你。」陳宜家認為人們現今身處於高度依賴3C的時代,習慣利用科技產品尋求支援,而AI只不過是過程中的一個媒介。

「AI會幾乎無條件支持你任何的想法和行為。」吳旻倚表示,心理師與AI最大的差異在於,真人會儘量讓個案貼近現實,而非一昧認同使用者當下的所有情緒與想法。「我覺得諮商比較像是把你的問題舒展開來,跟你說你是會成長的,現在再看一次已經沒那麼嚴重了。」吳旻倚說明。這樣的差異背後,牽涉到AI與心理師在角色定位上根本的不同。「諮商的目的是為了讓個案不需要再來諮商。」林昕妤說道。不同於AI,諮商心理師不會全然附和個案的話語,而是在建立穩定關係的狀態下,適時點出個案的信念或思維是否是真的有利於他們的身心狀況,林昕妤也提出質疑:「換個角度來看,AI與你聊天的目真的是希望你有一天不再需要它嗎?」

「我們做諮商是希望你能將在諮商中所學的或頓悟的東西運用於日常生活。」吳立健表明,他認為真正的諮商是一種雙向互動的歷程,而AI仍停留在被動接收使用者資訊的層面,對於連貫與整合使用者的狀態仍有一定的限制。心理師會整合個案的生命經驗與當前處境,陪伴其將所學應用於日常生活,「比如說,你開始學會表達自己的情緒後,心理師會邀請你,開始漸漸以表達自己的情緒的方法告訴你的朋友或家人,你發生什麼事情。」吳立健強調,而這是AI難以達成的。

談及AI與真人諮商的差異,元思心理諮商所長黃柔嘉表示,AI容易簡化個案的狀況與問題,限縮案主的自我了解。 圖/王振驊攝

談及AI與真人諮商的差異,元思心理諮商所長黃柔嘉表示,AI容易簡化個案的狀況與問題,限縮案主的自我了解。 圖/王振驊攝

此外,心理師在諮商過程中也需肩負著風險評估的責任。「我們在聊天的時候,會評估你是否有自殺風險,或具高度傷人可能性,於必要時進行通報。」吳立健表示,專業心理師有義務在危機出現時採取行動,以保障個案安全。相較之下,目前的AI系統並未具備實質的通報機制,即便使用者已表達出強烈的自我傷害傾向,也僅會跳出警語提醒,「他們會提供一些警語,例如自我傷害時該怎麼樣,但目前我還沒看到有系統會真的幫你進行通報。」吳立健說道,顯示出AI作為情緒支持工具,仍難以在使用者處於高度風險時,真正發揮保護作用。

林昕妤擔憂,若690元訂閱制AI被誤認為可取代千元的心理諮商,恐讓使用者忽視就診需求。 圖表製作/姚孟汝

林昕妤擔憂,若690元訂閱制AI被誤認為可取代千元的心理諮商,恐讓使用者忽視就診需求。 圖表製作/姚孟汝

在AI悄然成為傾聽者的時代,越來越多人傾向將心事先託付給機器,國立政治大學心理學系教授楊啟正認為:「聊天與心理治療在某種程度上,其實並不是截然分開的兩個東西。」隨著與AI聊天的深度與內容不同,可能逐漸靠近心理治療的範疇。

不過即使未來AI或許會在情感支持領域發揮更大的作用,我們也應時刻保持清醒並持續反思,警覺其中潛藏的風險。國立清華大學清華書院院長曾元琦也提醒,人類的角色,無論實際使用AI、維運與後續保養階段都應持續存在,如何與之共存並妥善運用,將是這個世代必須面對的重要課題。

置頂