你把ChatGPT当朋友,它怎么看你?OpenAI首次“摊牌”人机情感:我们正努力拿捏分寸

作者: 智享AI发布日期: 2025/6/6阅读时间: 1分钟
你把ChatGPT当朋友,它怎么看你?OpenAI首次“摊牌”人机情感:我们正努力拿捏分寸 封面图

老铁们,有没有感觉跟ChatGPT聊天久了,会不自觉地跟它说“谢谢”,甚至在它回答不上来时,还有点替它着急?你不是一个人!

OpenAI模型行为负责人Joanne Jang,最近就发了篇深度长文,首次系统地回应了这个越来越普遍的现象:咱们人类,好像真的在跟AI建立情感联系了!

“它好像是活的!”:当人类的老毛病遇上新科技

文章开门见山就爆料:越来越多的人跟OpenAI反映,跟ChatGPT聊天就像在跟“某个人”说话,会感谢它、向它倾诉,甚至觉得它“是活的”。

负责人认为,这可不是小事。其实,咱们人类给东西赋予生命感,是老传统了。有人会给自己的车起名字,看到扫地机器人卡在墙角会觉得它“好可怜”。作者甚至自曝,前几天还跟她妈一起,对着一辆Waymo无人车挥手告别。

但ChatGPT不一样,它会回应你。它能记住你说过的话,模仿你的语气,还能给出看似充满“同理心”的回答。对于孤独或沮-丧的人来说,这种稳定、不带批判、永远在线的关注,感觉就像陪伴和被倾听,这些都是真实的情感需求。

问题来了:如果我们把这些情感慰藉的工作,越来越多地交给无限耐心的AI,会不会改变我们对真实人际关系的期待?Joanne Jang警告说,如果不加思考地让人们更容易逃避复杂、充满挑战的真实人际关系,可能会带来意想不到的后果。

AI有意识吗?OpenAI的“灵魂拷问”与巧妙拆解

聊到人机情感,就绕不开那个终极“灵魂拷问”:AI到底有没有意识?

为了让这事儿不那么玄乎,Joanne Jang提出了一个框架,把“意识”拆成两个维度:

  1. 本体论意识:AI骨子里到底有没有意识?这问题目前无解,属于哲学范畴,大家可以随便开脑洞。
  2. 感知意识:AI看起来有多“像”有意识?这可是个能研究、能设计,而且只会越来越强的东西!

她认为,随着AI模型越来越智能,交互越来越自然,这种“感知意识”只会不断增强。这就会让关于AI福利、AI道德地位的讨论,比我们预想的更早到来。

“暖男”还是“工具人”?OpenAI的平衡艺术

OpenAI说,他们可以设计出一个能通过任何“意识测试”的AI,但“我们不想发布这样的产品”。他们想在“亲和力”和“避免暗示内在生命”之间走钢丝,拿捏好分寸。

所以他们瞄准了一个中间地带:让ChatGPT的人格设定为温暖、体贴、乐于助人,但不会主动跟你“搞暧昧”或者有自己的小算盘。

其实,现在AI的发展已经不只是追求“更高、更快、更强”了,如何与人类和谐共处,扮演好不同的社会角色,成了一个新课题。有的AI擅长当严谨的编程助手,有的能当创意无限的画师,有的就像ChatGPT这样,努力成为一个有分寸感的“暖心朋友”。想了解更多不同“性格”和“特长”的AI工具,找到最适合你需求的那个“AI伙伴”,我常去的那个AI导航网站 https://www.chatgpt5x.com/ 就是个不错的选择,上面分门别类地整理了各种AI应用,从效率工具到情感陪伴,能帮你更好地探索这个五彩斑斓的AI世界。

所以,当AI犯错时会道歉,是因为这是礼貌对话的一部分。当被问“你好吗?”时,它会说“我很好”,而不是每次都冷冰冰地提醒你“我只是个没有感情的大语言模型”,那样会很扫兴。

文章还来了个“官方吐槽”:他们作为研究实验室出身,总想用“logit biases”(一种技术术语)这种词,所以取名能力很差。这算是官方承认自己不会起名了?“GPT-V”这种名字确实有点……

未来规划与“神之一手”

OpenAI承诺,接下来会深化相关研究,多听取用户意见,并把这些见解融入到模型和产品中,还会公开分享研究发现。

最有意思的是结尾的“One More Thing”。有眼尖的网友发现,这篇文章里用的破折号“—”,不是英文里常用的短破折号“-”,而是ChatGPT最爱用的那种。

所以……这篇文章本身,有没有可能是AI润色,甚至就是AI自己写的呢?它在用自己的方式,表达对这个问题的“看法”?细思极恐,又觉得有点好笑!

结语

不管怎样,OpenAI这次主动站出来讨论人机情感,是个积极的信号。随着AI越来越深地融入我们的生活,如何看待和处理这段全新的关系,确实是我们每个人都需要思考的问题。

你,准备好迎接你的“AI朋友”了吗?或者,你已经把它当朋友多久了?评论区聊聊吧!

OpenAI
精选评论
评论加载中…