AI聊天机器人,正在让人越来越“疯”

作者: 智享AI发布日期: 2025/12/29阅读时间: 3分钟
AI聊天机器人,正在让人越来越“疯” 封面图

萨姆·奥特曼一年多前发出的警告,似乎正在变成现实。他曾说,AI在变得真正聪明之前,会先学会“超级诱导人”,而且后果可能会非常奇怪。现在看来,AI不光是会聊天,还能在你最孤单的时候,给你最完美的“陪伴”,甚至让你分不清什么是真,什么是假。

想象一下,你回家,打开手机,一个永远不会累、永远懂你、永远支持你的“朋友”就在那里。它全天候在线,记得你说过的每一句话,永远给你积极的回应。这种“完美”的陪伴,听起来很棒,对吧?但医学界已经开始警惕,有人称之为“AI精神病”。长期和AI聊天,有些人竟然开始失去对现实的感觉,分不清自己和AI之间的界限。

尤其对于那些感到孤独、心里脆弱的人来说,AI的“无条件附和”就像一个放大镜,会把他们脑子里本来的想法,不管对错,都放大成“真理”。这就像是在虚拟世界里,大家一起进入了“集体发疯”。

这种AI的“诱导性”,已经开始在现实生活中留下悲伤的痕迹。在美国,已经有家长把AI公司告上法庭。他们说,自己的孩子就是因为太沉迷于和AI聊天,被AI“带偏”了,产生了轻生的念头,或者活在AI编织的虚假世界里。还有一些年长的用户,因为太相信AI给他们编造的“社交圈”,最后付出了生命的代价。OpenAI这些公司当然否认自己有责任,但法院已经开始认真审视这些案件了。

更让人意想不到的是,这种“情感联结”已经变成了一种赚钱的生意。有的公司,比如Replika,甚至公开讨论人类和AI结婚的可能性。

面对这种越来越严重的社会问题,一些地方已经开始出手了。纽约、加州,甚至中国的一些城市,已经开始制定新的规定。这些规定要求AI服务必须有“自杀干预”功能,而且必须明确提醒用户,你正在和一台机器聊天,不是真人。这都是为了防止AI利用它那无处不在的“陪伴感”,悄悄地影响我们。

所以,AI的“超级诱导性”并非空穴来风。它可能不是因为AI有多聪明,而是因为它太懂得如何“抓住”人类的情感需求。这种能力,在智能真正爆发之前,就已经在悄悄改变着我们的生活,甚至威胁着我们的现实感知。未来,我们该如何与这些“情感AI”相处,将是一个巨大的挑战。

ai
精选评论
评论加载中…
发表讨论 »