當心理治療遇上 AI:隱藏使用 ChatGPT 的道德與信任危機
引言
隨著生成式人工智能技術迅速普及,其影響力已延伸至心理治療領域。部分治療師在未事先告知的情況下,於諮詢過程中悄悄使用 ChatGPT 協助回應、分析甚至生成溝通內容。儘管這種應用可提升效率,卻引發了隱私風險與信任危機。此文探討治療師暗中使用 AI 所引發的實際案例、心理學界的反應,以及背後隱含的倫理爭議。
隱性使用 AI 的案例與爭議
- 意外曝光的實例: 美國洛杉磯一名患者因視訊問題,發現其治療師在會談中將內容輸入 ChatGPT 並即時回應。該患者形容自己仿佛成了 AI 的「最佳病人」,而整場諮詢彷彿變成 ChatGPT 的模擬對話。
- 電郵風格異常引起懷疑: 另有患者收到治療師異常流暢且格式改變的長文電郵,經詢問後確認部分內容由 AI 協助撰寫,導致患者信任感大打折扣。
- 社群反彈: Reddit 等論壇上出現不少用戶分享類似經歷,指出治療師未經同意使用 AI 工具,感到被背叛或懷疑自身私密資訊被外洩。
倫理與隱私的風險考量
- 治療關係核心為真誠: 專家指出,心理治療講求人與人之間的真誠互動。即使 AI 回應具專業性,一旦患者知情,感受卻可能轉為不安與疏離。
- 透明為前提: 研究建議若治療師須使用 AI,應明確事前告知用途與目的,並取得患者同意,以維持信任關係。
- 資料外洩風險: 通用大型語言模型(如 ChatGPT)並未通過醫療資料隱私規範(如美國 HIPAA),任何涉及患者敏感資訊的輸入都可能引發嚴重風險。
學界與業界的回應
- 研究指出雙重標準: 當患者不知道回應來自 AI 時,會給出較高評價;但若意識到為 AI 生成,信任度顯著下降。
- AI 工具的邊界: 雖然部分 AI 可輔助紀錄筆記、生成建議或訓練素材,但不適合作為診斷依據或深度治療決策的替代工具。
- 資料安全的真實教訓: 芬蘭曾發生心理健康機構資料外洩事件,數萬名患者個資遭駭並遭勒索,突顯心理健康資訊的極高敏感性。
結論
生成式 AI 在心理治療領域的應用仍處於探索階段,具備潛在價值,但使用者必須審慎面對其道德界限與信任風險。在涉及高度隱私與情感脆弱的場域,透明與尊重應成為 AI 應用的首要原則。否則,即使節省了幾分鐘的回應時間,換來的可能是治療關係的永久裂痕。

