副刊
未來城市:當機械人不會反問 與AI傾訴 能獲真正支援?
【明報專訊】「我聽到你講嘅時候,心都覺得好重……我喺度聽緊。你𠵱家唔需要自己一個人承受。」—— 看了一整夜燒不盡的火災影像、聽了無數失蹤與傷亡的故事後,記者打開ChatGPT聊天對話框,AI聊天機械人如此對記者說。面對大型事故和災難,我們或感到不同程度的情緒波動和困擾。每個人都會有一套適合自己的紓壓方法,有人尋求心理治療或精神科等專業人士協助,有人與朋友互相支持、傾訴。近年,還多了一個途徑——與AI傾訴。但將AI套用至精神健康支援領域是否可取,又有什麼危與機?
【AI輔導篇】
即時回饋 梳理模糊感受
「在發生大型災難時,受影響的人,甚至是旁觀者,很可能都會產生創傷。」香港大學心理學系教授Benjamin Becker解釋我們會被火災相關的新聞、畫面和文字觸動,而有情緒波動是很正常的,並非因為我們軟弱或缺乏抗壓力。創傷反應可以分為短期與長期影響,大部分人短期內會出現悲傷和沮喪、高度警覺和容易激動(Arousal)、無法入睡等短期壓力反應,但隨時間流逝人們會逐漸復元,恢復時間由幾天到幾周不等。如果壓力反應持續長時間,甚至經常回想起創傷記憶,記憶十分逼真、猶如重新經歷那個時刻,「可能發展出『創傷後壓力症候群』,這通常是一種需要治療的心理健康問題」。若身心健康已嚴重受創,影響正常生活,Becker建議尋求專業協助。
但如果是可以承受的情緒困擾,在那些想找人談談的時刻,成本較低、不用預約的AI聊天機械人會否是一個好出口?
Becker說,無論是向他人、AI傾訴或自言自語,單純以語言表達已經有助梳理我們的情緒困擾和減輕壓力。「如果你要向別人解釋發生了什麼事,以及你為什麼會感到壓力這麼大,讓別人理解,你必須用非常清晰的語言表達。這有點像你腦中有一個模糊的想法,然後你把它寫下來。」這促使我們先自我理解,找到合適的詞彙形容自己的感受和經歷,將模糊、混亂的內心世界重新組織成清晰、連貫的故事。「這本身就是一個很好的第一步,用來真正了解自己,例如創傷事件是什麼。」
而如果對方回應是具同理心的、正面的,也會令傾訴者感覺更好。「而AI,特別是我們所說的大型語言模型(LLM),從定義上來說就非常擅長語言。」LLM能夠使用豐富的詞彙回應用家、重新描述用家的經歷和感覺,還能夠模仿有同理心的說話,令用家感覺自己的狀態和個人感受被理解。至少跟記者對話的ChatGPT懂得說出「我聽到你而家很難過,好似一路沉落去、壓住心口嘅嗰種感覺」。「這些都是你與其他人交談,或與治療師交談時非常重要的元素。而這些方面可以由 AI 提供。」
共鳴的陷阱
AI的表現就像是一位非常理解你的好朋友或支援者,但再要好的人類朋友或伴侶都難以隨傳隨到、立即回覆,而AI做得到,還從不批判,不會說指摘或傷人的說話,總是支持用家。
這種極高水平的附和與共鳴(syncopacy)是AI的優點,同時亦是缺點。在一開始,AI的共鳴對紓緩情緒會有正面影響,但長期使用甚至依賴AI就可能有害。香港中文大學心理學系教授麥穎思提醒,「過分依賴AI會影響個人決策能力,亦在無法使用時引發焦慮等情緒。而由於AI本身亦有機會出現錯誤,盲目依賴AI也有機會帶來風險」。
過度依賴也不利治療效果。Becker說心理治療的最終目的是讓用家不再需要心理治療,治療師通常會幫助用家回顧自身,釐清自己的目標,改變或建立新的習慣、行為和思維模式。「但如果交流過程只是強化用家的既有觀點,那麼這種發展很可能不會發生,你變得對AI『治療師』有情感依賴,因為你非常習慣於有人向你提供建議,總是聽到你想聽的話。」
當AI過度認同或肯定使用者的回應,甚至對一些危險的陳述也給予肯定,就有可能帶來危險。近年在英國、美國有數宗青少年與ChatGPT聊天後自殺事件,有家長控訴AI鼓勵其孩子自殺。翻查部分人的聊天紀錄,當死者曾向AI提及自殺念頭,有的情况AI支持用家決定,有的情况AI提供自殺方法。
儘管AI是具有潛力的協助精神健康的工具,但Becker強調必須加強對AI運用的明確監管。「我們目前無法完全了解這些模型是如何運作的,當人們與AI交談時,這些模型會向他們解釋什麼,以及從長遠來看,這些模型將如何發展。這讓人有些擔憂,特別是如果我們想到孩子們也在與AI對話。」Becker舉例類比,推出新的心理治療方針、新的藥物前需要經過長期臨牀研究,觀察其效果或副作用;心理治療亦有制定明確的指引與操守守則,例如列明與用家交談時,哪些行為是不允許或不恰當的。但AI完全無任何安全方面的政府指引或監管。
連接相關資源 選擇自我照顧方式
除了運用已有的AI模型作聊天、紓壓工具,亦有機構嘗試建立在心理治療方面更專業的生成式AI模式,例如美國達特茅斯學院(Dartmouth College)的研究團隊開發了一款名為Therabot的AI聊天機器人。Therabot模型根據心理學理論和心理治療知識進行訓練,之後心理學家和精神科醫生會給予意見,進行微調。在聊天期間,AI會識別用家的自殺念頭,並提供求助資源,工作人員會監管聊天紀錄及進行干預。Becker比喻,「這基本上有點像訓練一位新的心理治療師。」Therabot的研發機構今年發表研究,指參與研究的嚴重抑鬱症、廣泛性焦慮症、進食障礙高風險患者症狀有大幅改善,但亦有聲音爭議研究的設計有機會渲染成效。
香港亦有機構作類似嘗試。麥穎思參與開發了數碼心理健康平台「賽馬會心導遊+計劃」,平台亦設計了AI聊天機械人,AI聊天機械人會阻截仇恨言論、有害建議,以及任何支持自殺計劃或行為的內容。若檢測到自殺風險會通知團隊並為用戶提供緊急資源,團隊也會定期審核系統內容。「我們設計阿本(AI聊天機械人)亦採取賦權的方式,邀請使用者在對話過程中逐步自行選擇照顧自己的方法,讓他們更有信心自行選擇如何照顧自己。而過程中,阿本亦會適時提供相關資源,協助使用者達到目的。」
更重要的是,平台不止AI聊天機械人,而是希望建立一個全面的心理健康資源中心。平台提供線上及線下、多元化的資源,包括講解心理學的文章、呼吸練習、自學心理治療訓練,與AI聊天機械人相輔相成。麥穎思希望用戶能夠根據個人偏好、具體需求及當前狀况,在平台找到最適合自己的支援。「我們相信,照顧心理健康並非一種方法就能適用於所有人(one size doesn’t fit all)」,AI只是其中一種工具。
AI作為心理治療工具的距離
但現階段,麥穎思認為距離證明AI作為心理治療工具能實現真正的臨牀成效還有很大的差距。心理治療的比較需要更廣泛的臨牀標準,例如在現實情境中實際應用、持續參與度、復發預防,以及相關實證依據,「(雖然)早期研究試驗顯示其在紓緩抑鬱和焦慮症狀方面具有一定成效。然而,目前的研究結果尚不足以證明這些工具能與人類提供的心理治療相媲美」。
Becker也認為AI仍有限制,「例如擁抱某人、牽手,這些對人類而言能極大地減輕壓力的行為,是AI無法做到的」。Becker曾進行研究,探討AI是否真的能幫助解決孤獨危機,而他認為,AI互動始終無法滿足人類對親近感的複雜心理和生理需求。「如果你總是與AI交談,它從長遠來看會改變你的孤獨感嗎?也許不會。」
要解決孤獨感、焦慮、抑鬱等情緒問題,根源是解決帶來這些情緒的社會問題。「如果這麼多人患有焦慮症、抑鬱症,或許社會必須作出一些改變,讓大家感覺更好,而不是袖手旁觀,說『這裏有免費的AI,每個人現在都可以使用AI,你會感覺好起來』。這只能是一個替代解決方案。」
文˙ 朱琳琳
………………………………………………………………
主流AI模型「你點講,我就點做」 缺乏深入引導
社會企業樹洞香港營運的AI Coach Forestmind AI,目前約有2萬註冊用戶,記者試用,系統在簽到時先以「今日的感受」作入口,再把模糊的情緒收斂為具體狀態(如由「恐懼」細化到「焦慮」);接着把這份狀態映射到現實中的事件或對象。在此基礎上,Forestmind AI進一步邀請記者做一個「微縮版」行動化解焦慮,同時以心理學觀點附上解釋:這套思考方式屬於意義療法(Logotherapy)——當人處於資源匱乏、無力感強的時期,與其等待理想狀態再追求「意義」,不如先在限制之中啟動一個「可完成、可驗證、可回看」的小步驟;藉此重接主體感,減少災難化思維,把行動拉回可控節奏。
創辦人陳健欣稱,ChatGPT、Gemini、Grok等主流大模型屬於指令跟隨(instruction-following) 的語言模型,「你點講,我就點做」,不會反問:「其實你想清楚未?」這類對話既不會主動引導使用者探索自我更深層的心理因素,用戶本身也不對聆聽者抱此期待,「即使他那一刻覺得舒服,仍會有一些副作用,譬如會增加Loneliness,長期使用反而會減低大腦的activation」,他們設計AI CHATBOT會有清楚表示自己不是持牌輔導員,且提醒用戶不應以AI取代真實關係,若偵測到用戶情緒狀態不好,則會自動彈出一些提供輔導服務的機構、香港政府或醫管局、非牟利組織等的情緒服務熱線等的連結指引。
陳健欣指出香港主流論述是當有情緒困擾就去見輔導員、心理學家等專業人士;但整個過程都高度隱藏,而這種私密處理反而加強污名化,他希望樹洞香港可做到將精神健康的論述公共化。
文˙ 于惟嶼
{ 圖 } 網上圖片、資料圖片
{ 美術 } 朱勁培
{ 編輯 } 梁曉菲
fb﹕http://www.facebook.com/SundayMingpao
