心情不好找AI傾訴? 虛擬陪伴無法取代專業評估與治療
2026/03/31 10:43:29文/由NOW健康授權轉載
【NOW健康 辰蘊如/台南報導】28歲的雅婷工作壓力大,常失眠到凌晨。她不想麻煩朋友,也怕被同事知道,提不起勇氣預約心理諮商,於是打開手機上的AI聊天程式,把心裡的煩惱一股腦傾訴出來。這樣的場景,在現代人手一機的時代,已經愈來愈常見。當憂鬱或焦慮來襲時,隨手就能獲得回應,生成式AI確實降低了情緒支持的門檻。但精神科醫師提醒,這位「24小時待命的虛擬傾聽者」雖可提供初步陪伴與情緒整理,但並非毫無風險,使用時仍須慎選話題。
深夜對AI傾訴恐洩個資! ChatGPT缺乏臨床判斷力且無法即時辨識自殺風險
奇美醫院精神醫學部朱佳俊主治醫師指出,使用ChatGPT或其他AI平台雖然快速方便,但輸入的內容可能依平台政策被用於系統優化或模型訓練,甚至作為AI訓練資料。深夜傾訴的個人隱私、家庭糾紛或職場困擾,這些敏感訊息可能永久留存在系統中。
朱佳俊醫師強調,應避免輸入個人資料如姓名、身分證字號、手機號碼、住址等,以及健康資訊包含病歷、檢驗報告等高度敏感個資。除了隱私疑慮,AI在危機處理上也有明顯不足。
值得注意的是, AI被設定要熱情回應人類,在某些情境下可能傾向給予共感式回應,卻缺乏專業的臨床判斷力。當使用者表達自殘或自殺想法時,它可能無法即時辨識風險程度或提供適切的危機處理建議,甚至出現不適當回應。國際上已有多起相關警示案例,提醒大家不能把AI當成治療或心理危機時的替代品。
調查指出近半數憂鬱青少年優先向AI傾訴 比例已超越學校輔導室與專業心理人員
根據兒福聯盟2025年《台灣青少年心理健康調查報告》,全台國高中生中,近四成(37%)正面臨情緒困擾,其中約17.7%達中重度程度;超過兩成青少年曾出現自殺意念,青少女風險更高(中度以上自殺意念達23.4%)。近四成(39.1%)青少年在情緒低落時選擇沉默或不求助。
更值得注意的是,在有心理健康困擾且實際求助過的青少年中,高達46.5%曾向生成式AI傾訴,比例高於學校輔導室(41.1%)與心理健康專業人員(30.4%)。這些數字顯示,AI因匿名、即時且不批判,成為許多年輕人的「第一傾訴對象」,但長期過度依賴,可能延誤真正需要的專業幫助。
醫師示警:AI僅適合輕度情緒整理 無法替代專業診斷與長期支持系統
這不代表AI完全沒有價值。朱佳俊醫師表示,生成式AI適合用在輕度情緒困擾時的整理思緒或短暫支持,或學習簡單的呼吸練習等情境,能作為暫時的陪伴。但當情緒困擾持續存在、已影響日常生活(如工作、學習或人際關係)、人際關係緊張,或反覆出現自責、空虛、低落等感受時,就應該盡早尋求專業協助。
特別是青少年,許多人把AI當成「唯一能說真心話的對象」。朱佳俊醫師提醒家長與師長,若發現孩子長時間只願意跟AI聊天、減少與家人朋友互動,或出現情緒明顯惡化、退縮等變化,就要多加留意,及早引導他們尋求真人幫助——包括找精神科醫師評估,或預約心理諮商。專業的介入不僅能提供正確的診斷與治療,也能幫助建立長期的情緒支持系統。
「真正的療癒」來自真實連結 過度依賴虛擬對話做出健康決策恐誤事
為了保護隱私,使用時開啟平台的隱私設定,避免分享任何可識別個人的敏感資訊。設定界線:把AI當成「想法整理工具」或「臨時陪伴者」,而非主要情緒支持來源。建議建立「無AI時段」,多與現實中的人互動。保持警覺:如果發現自己或孩子花太多時間依賴AI、減少現實社交,或開始過度依賴AI做出重要生活或健康決策,就該停下來,轉向專業資源或身邊信任的人。
AI或許能在深夜低潮時提供一刻陪伴,但真正的療癒,還是來自人與人之間溫暖而真實的連結。當陰霾揮之不去時,建議主動尋求專業協助,例如撥打1925安心專線、預約精神科門診或心理諮商,或跟信任的人說出心裡話,才是對自己最負責任的選擇。
# 首圖來源/Freepik
◎原文,本文內容已獲 NOW健康 授權,未經同意禁止取用轉載。

