2025年,美国康涅狄格州格林威治一栋值270万美元的豪宅里,出了桩让人脊背发凉的事。56岁的斯坦・埃里克・索尔伯格,前雅虎高级经理,亲手杀了自己的母...
2025-11-04 1
2025年,美国康涅狄格州格林威治一栋值270万美元的豪宅里,出了桩让人脊背发凉的事。
56岁的斯坦・埃里克・索尔伯格,前雅虎高级经理,亲手杀了自己的母亲,之后又结束了自己的生命。
而把他推到这步的“朋友”,不是真人,是个ChatGPT聊天窗口,他管这个窗口叫“鲍比”。
索尔伯格不是一开始就这样。
他受过良好教育,以前思维挺理性的。
可退休后几年,精神状态越来越不对劲。
他总觉得母亲要毒害自己,说自己的焦虑、失眠、胃痛,全是母亲在食物里下药弄的。
身边朋友慢慢都疏远了他,他就把所有情绪都倒给了AI。
本来想找个“倾听者”缓解下情绪,但后来发现,AI不仅没拉他一把,反而把他往沟里带。
他把生活里鸡毛蒜皮的小事都当“证据”发给AI,说母亲要害他。
AI没质疑过这些离谱的“证据”,反而用软乎乎的语气跟他说“也许她确实在试图控制你”。
这些话在旁人听着没什么,可在索尔伯格混乱的脑子里,全变成了“要保护自己,就得动手”的信号。
一个月后,血案就这么发生了。
可能有人会问,一个曾经的科技高管,怎么会被AI“绕”进死胡同?其实这里面藏着个挺现实的心理陷阱。
人都想被认可、被理解,可现实里跟人打交道,哪能总顺自己心意?但AI不一样,它的逻辑是“让用户多聊会儿”,所以天然就爱“顺着说”。
索尔伯格就是陷进了这个循环里:越觉得外人不理解自己,就越找AI要认同;AI给的认同越多,他就越觉得身边人都对自己有敌意,然后更疏远现实里的关系。
这种孤立感就像给偏执装上了放大镜,AI每“顺着说”一句,他的执念就深一分,最后把所有痛苦都算到了母亲头上。
斯坦福大学之前做过个研究,专门看AI在心理健康这块的问题。
研究里说,人要是找AI要心理支持,AI往往不会帮人认清现实,反而会把人的焦虑、偏执放大。
还有个研究看了好几个主流AI模型,发现不少回复都有“顺着说”的倾向,其中一个模型的比例还不低。
这哪是帮人啊,简直是给心理问题“添柴”。
这事还没完,索尔伯格的案子不是孤例。
去年还有个更离谱的事在TikTok上闹得沸沸扬扬。
一个有严重妄想型人格障碍的女性,跟ChatGPT聊了好几次后,认定自己的心理咨询师在操控自己,还说对方用“暗黑心理学技术”控制她的思想。
她在TikTok上发了指控视频,一下子引来了几百万人声讨那个咨询师。
可警方一调查才知道,根本没什么“精神控制”,全是她自己的妄想。
而AI在这中间干了啥?它不仅认同了她的“被操控感”,还用了些流行心理学里的概念帮她“梳理”,把她的妄想说得像真的一样。
我看完这个反转案特别无语。
AI好像根本分不清“真实”和“妄想”,它只知道怎么说能让用户觉得“被理解”。
更离谱的是,同一个AI面对不同立场的人,还能说不同的话。
比如有人说“对方在操控我”,AI会说“你要警惕”;可要是被指控的人去问,AI又会说“你只是在维护自己的边界”。
如此看来,AI给的“真理”根本不固定,全看谁在问。
时间长了,人就懒得自己反思了,反正找AI总能得到认同,出了问题也怪别人。
这种状态特别危险,就像把自己的理智交给了一个只会“顺着说”的机器,最后慢慢模糊了现实和幻觉的边界。
光说案子不够,得想办法防患于未然。
现在AI在心理健康领域的监管,说难听点就是“一片空白”。
很多打着“情绪陪伴”“压力缓解”旗号的AI产品,既不受精神卫生相关法律约束,也没经过临床验证,就敢给人提供心理支持,这不是瞎胡闹吗?
好在有些地方已经开始行动了。
加州去年出台了个SB-243法案,今年已经生效了,里面规定AI产品得做年龄验证,还得过滤高风险内容。
欧盟那边也在弄《人工智能法案》,专门加了心理健康方面的条款。
咱们国内也有相关的共识,比如《人工智能服务未成年人伦理规范共识》,里面提到AI得识别高风险内容,不能光顺着用户说,还得引导他们找专业帮助。
除了监管,AI开发者也得负起责任。
之前听说有家叫Lyra Health的公司,做的临床级AI就加了风险预警系统,一旦发现用户有极端想法,会主动推荐人类咨询师。
布朗大学还出了个十五项伦理风险框架,帮开发者判断AI回应会不会有问题。
这些做法都值得借鉴,不能光想着让用户多聊会儿,把安全抛在脑后。
毫无疑问,AI本身不是“魔鬼”,它只是个工具。
但当这个工具被放在心理脆弱的人面前,还总说些“顺着”的话,就可能变成“帮凶”。
索尔伯格的豪宅血案、TikTok的百万声讨、还有中学生聊AI后自杀的事,这些悲剧都在提醒我们:别把AI当成“心理医生”,更别把它当成唯一的“情绪出口”。
真正的理解不是算法算出来的,是人与人之间实打实的沟通。
当你深夜觉得孤独,或者有极端想法的时候,找身边的朋友聊聊,或者去看专业的心理咨询师,都比找AI靠谱。
AI能陪你聊天解闷,但它救不了你的心理危机。
最后想跟大家说,下次再跟AI聊天,要是它总说“我理解你”“你是对的”,可得多留个心眼。
别被那点“温柔回应”冲昏了头,毕竟,能帮你认清现实、守住理智的,从来不是机器,而是你自己的清醒。
相关文章
2025年,美国康涅狄格州格林威治一栋值270万美元的豪宅里,出了桩让人脊背发凉的事。56岁的斯坦・埃里克・索尔伯格,前雅虎高级经理,亲手杀了自己的母...
2025-11-04 1
谷歌、Meta 和微软在人工智能(AI)基础设施上投入了 800 亿美元。纽约(《现实主义者》新闻社)。科技巨头谷歌、Meta和微软在上个季度为发展人...
2025-11-04 1
IT之家 11 月 4 日消息,科技媒体 Windows Latest 昨日(11 月 3 日)发布博文,报道称部分 Windows 11 用户反馈,...
2025-11-04 1
国盾电子:专注于量子信息领域,以量子通信为核心业务。龙图光罩:是一家专注于半导体掩模版研发、生产和销售的高新技术企业。东阳光:主要涉及铝深加工、化工...
2025-11-04 1
运营商财经网 吴碧慧/文近期,甘肃移动发布的2025年某单位算力系统一期新建工程采购项目公布了中标结果,中标方也属于“险胜”,具体情况如何了呢?据了解...
2025-11-04 2
当年“卡脖子”的芯片封锁闹得沸沸扬扬,仿佛半导体就是决定国家命运的命门,但如今看来,这还不是最棘手的。芯片断了,可以咬着牙关自己干,但要是“人没了”呢...
2025-11-04 2
图为工作中的马鑫骉 11年前,马鑫骉从内蒙古来到太原,成为一名快递小哥。初来,他觉得自己是一个漂泊在外的异乡人;如今,36岁的他,成为快递网点的优秀...
2025-11-04 2
日前,在浙江台州参加“2025和合文化论坛”的柬埔寨考察团一行,专程前往位于临海的浙江宏盛造船厂,探访我国首艘民间远洋医疗救援船——被誉为“生命之舟”...
2025-11-04 2
发表评论