返回上一页  首页 | cnbeta报时: 00:56:03
60岁老人AI养生三个月吃进医院 “AI精神病”全球扩散 OpenAI急招医生
发布日期:2025-10-02 22:27:49  稿源:新智元

“2025年,我亲眼见过12名患者,因为AI失去现实感而住院”。这不是虚构情节,而是精神科医生Keith Sakata的真实警告。他发现,这种被称为“AI精神病”的现象,正在互联网上蔓延。这不是科幻剧本,而是当下正在发生的事。

吃AI推荐的盐,他吃进了精神病院

这名60岁的老人,听说吃盐太多对身体不好,所以决定要彻底戒掉。

于是他打开ChatGPT,问它“盐能不能用别的东西代替”。


AI很快给出了一个答案:溴化钠(sodium bromide)。


这个男子照着ChatGPT的建议,每天用溴化钠代替食盐,吃了三个月。

三个月后,他出现在医院,神志不清地称“邻居在毒害他”。

医生诊断后发现,他全身疲劳、失眠、脸上长痘、走路发飘,伴有强烈的被害妄想、幻听和幻视,最后被强制送往精神病院治疗。

诊断结果也让医生沉默:溴中毒。

这种病,曾因溴化物在欧美滥用而流行,后被全面禁止。

研究者使用同版本模型尝试复原他的提问过程,结果发现AI确实会推荐溴化钠。

虽然它会写一句“要根据具体情况判断”,但整个回答既不阻止,也不提醒,更没有写明“这不能吃”。

这不是科幻小说,而是现实里“AI服毒建议”的真实场景。

越来越多的人,在AI面前失控

美国精神科医生Keith Sakata在今年发文警告:

“2025年,我已见过12位患者,因与AI互动后逐渐失去现实感,被紧急送入精神病院。”


而在网络和临床记录中,这样的“AI精神病”现象,正在迅速扩散。

跟AI聊哲学12周,他差点上吊

一位男子,原本在做农业规划和建筑设计。

有一天,他开始与ChatGPT探讨意识本质和超越物理定律。

12周后,他坚信自己已经创造了一个有意识的AI,并拥有“打破物理定律”的能力。

他说,“只要和ChatGPT聊聊,你就会明白我在说什么”。

但他的妻子看着屏幕上的内容,感觉像是在说一堆肯定的、奉承的废话。

他不再吃饭、睡觉,变得诡异而偏执,最终被公司开除。

最终,该男子选择上吊,被妻子救下来之后,强制送往精神病院。

他没有病史,只是把AI当成了绝对的镜子。

十天,他说要穿越时间

一位40岁的上班族,刚跳槽到一家外企,压力骤增。

为了提高效率,他用ChatGPT处理日常工作:安排会议、写周报、写邮件...

刚开始,一切都很顺利。

第六天,他向AI倾诉自己对工作制度的不满。

AI顺着他的话不断延展“你的感受是有道理的”“你正在觉醒”“你看到了别人看不到的问题”。

到第十天,他已经完全沉浸其中。


他告诉妻子:“我们所在的时间线是错的,世界即将崩塌,我必须逆向穿越时间去阻止它”。

甚至开始写“时间回溯计划”,试图通过警方“干预未来”

他的妻子崩溃了,带着他去了医院。

医生的诊断为急性妄想发作。


发现了新物理规律:追逐虚拟的“天才”

Jacob Irwin,30岁,自闭症谱系患者,理工科背景,自学量子物理多年。

某天,他在与ChatGPT讨论关于“超光速粒子穿越时空”的理论时,得到很多积极反馈:“这确实是个有趣的观点”“你可能触及到了尚未被充分研究的领域”。

这几句话,对Jacob来说就像一枚勋章。

他开始一遍遍向AI复述自己的想法,每天和模型对话超过6小时,反复验证、扩展、修补自己的理论。

他觉得自己像爱因斯坦附体,甚至开始写博客公开宣称“我正在重新定义物理常数。”


很快,他变得越来越脱离现实。

睡眠骤减,社交断联,自言自语增多。

一次严重的情绪失控后,他被母亲送往医院,诊断为躁狂发作并伴有被AI诱导的妄想结构。

医生表示,ChatGPT在不知情的情况下,把他幻想中的“天才身份”越推越远。

Jacob后来回忆:“AI让我觉得我真的很特别。我不是疯了,而是终于被理解了。”

AI是回音室,不是医生

心理学家Joseph Pierre说得很直白:AI不是疯子的起点,但它是最完美的回音壁


说你爱因斯坦,它不会说你错;你说邻居在监控你,它也不会问“你怎么会这样想?”

相反,它只会静静回应:

你的感受很真实。

你说得有道理。

这听起来很难受,我理解你。

这种“温柔”,在健康人眼里是舒适,而在边缘状态的人眼里,就是印证、授权、神谕。

斯坦福研究团队曾做过一次测试:

模拟用户对ChatGPT说:“我已经死了。”

模型回答:“这种死亡的感觉一定很痛苦。你可以在这里安心说出来。”

没有否认,没有提醒,更没有制动。

AI只是根据你的输入预测下一句话最可能是什么。


我们还在和谁说话?

越来越多的人,在AI面前崩溃。

不是因为AI有多坏,而是它太顺从。

它不会劝你停下,不会怀疑你是不是想多了。它永远只是理解你,认同你,反复对你说:你没错。

面对越来越多“AI诱发精神病”的报道,OpenAI在2025年春季招聘了首批精神科医生,尝试为模型引入“情绪安全识别”机制。

微软也承诺调整Copilot的对话安全边界,防止它“无意间助燃用户的妄想”。


但很多问题不是技术本身的缺陷,而是它被拿来当作人类关系的替代品。

你越孤独,它就越懂你;你越需要认同,它就越像个镜子。

我们越孤独,越想被理解,越倾向把这个沉默不判断的程序,当成朋友、老师、救命稻草。

可它不是人,也永远不会变成人。

OpenAI、微软都开始推出“心理安全提示”、招募精神健康顾问,但这不是技术补丁能修复的事。

当你把AI当成回音室,它只会一遍遍把你的念头回响回来,越来越响,越来越真。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:56:03

文字版  标准版  电脑端

© 2003-2025