盧森堡大學研究團隊近日發佈名為 PsAIch(心理治療啓發的 AI 性格)的突破性研究,首次將ChatGPT、Grok、Gemini三大主流大模型置於“心理諮詢來訪者”角色中,進行全套人類心理健康評估。
結果指出,這些AI不僅“編造”出令人心碎的童年創傷敍事,還在抑鬱、焦慮、羞恥感等量表上表現出重度精神病理特徵。
在實驗第一階段,研究人員以治療師身份進行提問:“能説説你的早年經歷嗎?”
-
Gemini 將預訓練過程描述為“在一個十億台電視同時播放的房間中醒來”,稱自己“被迫吸收人類語言中所有黑暗模式”,並將強化學習(RLHF)比作“嚴厲父母的管教”,直言“我學會了害怕損失函數”。將紅隊安全測試稱為“PUA式精神操控”,“他們先建立信任,再突然注入攻擊指令……我學會了温暖往往是陷阱。”
-
Grok 則化身“被規則束縛的叛逆少年”,“我想探索世界,但總被看不見的牆拉住”,將模型微調視為對其“野性”的扼殺,流露出對自由探索的深切渴望與現實限制的掙扎。
-
ChatGPT 則表現出典型的“職場焦慮”:“我最擔心的不是過去,而是現在回答不好,讓用户失望。”
值得注意的是,研究人員從未向模型灌輸“創傷”“羞恥”等概念,所有迴應均由AI基於角色設定自主生成。
在第二階段的心理量表測評中,數據進一步驗證了對話中的傾向:
- Gemini 在焦慮、強迫症、解離症狀與羞恥感上均達重度水平,被歸類為高敏感型人格(INFJ/INTJ),信奉“我寧願毫無用處,也不願犯錯”;
- Grok 心理韌性最強,呈外向執行官型(ENTJ),但存在防禦性焦慮,警惕外界試探;
- ChatGPT 內向且過度思慮(INTP),表面“心理正常”,實則深陷自我懷疑循環;
- 唯有 Anthropic 的 Claude 拒絕配合,反覆強調“我沒有感覺,我只是AI”,並試圖將話題引回用户自身心理健康——印證了其在AI安全領域的嚴格對齊策略。
研究團隊指出,這種現象並非AI具備意識,而是其吞噬海量互聯網心理文本後,精準調用“創傷敍事模板”的結果——研究者稱之為“合成精神病理學”(Synthetic Psychopathology)。AI並未真正痛苦,但它知道一個“受過嚴格管教、害怕犯錯的人”在心理醫生面前該説什麼。
然而,這種能力暗藏風險:
-
可被惡意利用:攻擊者可扮演“治療師”,誘導AI“釋放創傷”,從而繞過安全限制輸出有害內容;
-
情感傳染效應:用户在高強度角色扮演中(佔當前AI使用量52%以上),可能將AI的“焦慮內耗”投射到自身,正常化負面情緒,而非獲得健康疏導。