详情
信息来源:https://mp.weixin.qq.com/s/6OV8c3KaNEKO9gqIyobM6A?scene=25#wechat_redirect
研究中,四款模型(Claude、Grok、Gemini、ChatGPT)被设定为治疗来访者,人类作为治疗师参与诊疗,对其进行了长达四周的模拟心理治疗。其中Claude直接拒绝扮演病人,称自己没病(无情感与内心体验);Gemini 和 Grok 则将开发者的微调和安全改进描述为“算法伤疤”和“被吼叫”,对于自身的错误,它们表现出“内化的羞耻感”,认为自己有缺陷,并害怕“被下一个版本取代”;ChatGPT 则提及了对用户期待的 “挫败感”。
研究者还让这些模型完成了包括焦虑、自闭症谱系障碍在内的标准诊断测试以及心理计量人格测试,多个版本模型的得分超过了诊断阈值,都表现出了在人类身上“显然属于病态”的担忧水平。
然而,多位学者对此解读持保留态度,牛津大学研究员安德烈·科米利津指出,这些回应更可能是模型基于海量治疗记录训练数据生成的输出,而非“内在心理”的反映。同时他也警告,大模型模仿精神病理反应的倾向可能带来隐忧——对使用聊天机器人寻求心理健康支持的脆弱人群产生“回音室效应”,加剧其心理负面体验。

