AI 把人想得太聪明了?ChatGPT 和 Claude 预测人类行为总出错,原因在这里

作者: 智享AI发布日期: 2025/12/26阅读时间: 2分钟
AI 把人想得太聪明了?ChatGPT 和 Claude 预测人类行为总出错,原因在这里 封面图

你有没有觉得,有时候自己做决定,完全不是那么“理性”?比如,明明知道某个选择最好,但就是鬼使神差地选了另一个。最近一项新研究发现,连我们最厉害的 AI,比如 ChatGPT 和 Claude,都对人类的“理性”过度乐观了。

这就像玩一个猜数字的游戏,叫做“凯恩斯选美比赛”。规则是,大家都要猜一个数字,最接近大家平均猜测的那个数字的人才能赢。理论上,你应该一步步推测别人会怎么猜,然后给出自己的答案。这需要非常非常“烧脑”的逻辑。

研究人员就用这个游戏来测试 AI。他们发现,即使 AI 知道和它对弈的是谁——比如是大学生,还是某个领域的专家——它还是会觉得,这些人一定会做出最“聪明”、最符合逻辑的选择。

但现实是,我们人类哪有那么“理性”?我们可能会因为情绪、习惯,或者仅仅是“感觉”,做出一些 AI 觉得“不合逻辑”的决定。所以,当 AI 以为你在玩一场高智商的逻辑游戏时,你可能只是随手一猜。

结果就是,AI 预测人类行为的时候,经常会“翻车”。它们把人想得太“神”,结果反而离现实越来越远。

这可不是小事。想想看,如果 AI 要帮你做投资建议,或者设计一个营销方案,它需要准确预测你会怎么想、怎么做。如果它一直高估你的理性,那它的建议可能就没那么靠谱了。未来,让 AI 理解人类那些“不理性”的小心思,可能比让 AI 变得更聪明更重要。

aidesign
精选评论
评论加载中…
发表讨论 »