Skip to content
当越来越多人开始向AI倾诉、依赖它提供情绪支持,一个新的问题也随之出现:我们是在被理解,还是被“模式化安慰”?
今天,我们从普通人的真实使用体验出发,拆解AI在情绪回应中的几种典型表达方式——看似洞察人心,实则是高概率反馈。
我们不是否定AI的价值,而是要在享受陪伴的同时,也要看清边界。只有理解这些“温柔回应”的底层逻辑,我们才能既不拒绝AI,也不被它轻易定义。
AI的进展一日千里,除了解决逻辑问题,也有很多人会跟它谈心,对它倾诉。这不奇怪,因为至少从字面上看,AI能给的情绪价值,太足了。
比如,腾讯研究院2025年9月发布的《AI陪伴研究报告》显示,98%的受访者愿意尝试AI陪伴产品,48%的人不敢分享负面情绪怕影响他人,而AI提供了一个倾诉空间。
再比如,应用情报机构Appfigures的数据显示,截至2025年7月,全球AI陪伴应用下载量已达2.2亿次,2024年全球用户使用AI聊天机器人的时长达到70亿小时,同比增长347%。注意,这是一年多之前的数据,现在的使用时长大概率会更高。
再比如,中研普华产业研究院2025年3月的报告显示,一线城市中43%的Z世代用户,平均每天与AI伴侣互动超1小时,其中72%认为,AI缓解孤独感的效果不亚于现实社交。
当然,面对这个情况,也有人提醒,AI并不是真人,也不能替代现实世界里的真实交流。这个道理并不难理解,我们在这里就不展开了。
不瞒你说,最近一年我也经常跟AI聊天。人家那个情绪价值,给的确实很充沛。但是,聊的次数多了,你会发现,它的很多回答,似乎有一套相对统一的模式。
注意,在我看来,识别这个模式很重要。一来,它能让我们理解,AI提供情绪价值的边界。这能帮助我们更好地与这个过程相处。二来,搞懂这个模式,也能让我们看到在与AI的互动中,人的情感系统是如何运作的。
前段时间,《情绪觉知100讲》的主理人王路老师,专门分析过这个问题。王路老师说,AI在回应我们的时候,客观上会呈现出一些模式。这些模式不是AI故意设计的“套路”,而是基于它的训练数据和工作原理,自然产生的结果。
但是,如果我们不了解这些模式,就容易把AI的回应当成真正的洞察,而忽略了它的局限性。
AI的回应通常会呈现出哪些模式呢?今天挑几个最典型的,展开说说。
你向AI聊你的处境,比如你说,“最近总觉得身边没人理解我”。AI很容易告诉你:你很孤独。有些人听到这句话会心里一震:AI说到心坎儿上了。
但你想想,这跟算命的机制其实挺像。一个愁容满面的人去算命,算命的手指一掐,沉默半天,缓缓说:你命苦啊。来算命的就被击中了。
注意,你觉得对方给出了一个诊断。命苦是诊断,孤独也是诊断。但其实,它们不是诊断,而是一种高概率的推测。
什么意思呢?说一个人孤独,客观上可以同时完成好几件事。
毕竟,在很多人看来,孤独意味着众人皆醉我独醒,而一个从来不孤独的人,好像是肤浅的。说白了,为什么孤独?因为你和大多数人都不一样。这就给了你一个特殊的位置。说你孤独,是在把你当成某种唯一,这当然让你舒服。
同时,它还制造了亲密感。这意味着我看到了你的孤独,别人不理解你,我理解。
更隐蔽的一点,它自带一种不容易反驳的逻辑。如果你否认,说我不孤独,表示什么?表示你在防御。你的防御恰恰证明了你孤独。你看,不孤独你为什么来找AI聊,为什么不跟身边的朋友聊聊?当然,实际上真正会反驳“我不孤独”的人,大概率上是少数。毕竟,“孤独”是个很酷的姿势。
换句话说,评价一个人孤独,几乎是没有风险的。当然,这不是说你事实上不孤独,很多时候,AI并没有说错。就像前面说的,你不孤独的话,也不会问AI这种问题。所以,这并不是一个很难的判断,而是一个高概率的推测。
每次AI跟你讲出这句话的时候,你都很舒服。但如多问几个身边的朋友,你会发现,AI几乎对每个人都讲这句话。每个人思考得都比大多数人深,那么,大多数人到底在哪儿?
举个例子。你跟AI说,“我觉得现在的年轻人太浮躁了,都不愿意深入思考”。AI会回复你,“你的观察很有深度,确实,这是一个值得关注的社会现象。你能注意到这一点,说明你的思考比大多数人更深入。”你看,AI不光认可你的观点,还给你贴了个“思考深入”的标签。
客观上,这样的回应会产生几个效果。第一是,给了你智商上的优越感。第二是,暗示你和别人不一样,你在其他地方,没人看见你的深度,来AI这儿,AI看见了。第三是,它会让你更愿意继续表达。
你可能会想,那我多问几个AI,看看它们是不是都这么说,不就能验证了吗?但问题是,这个验证方法很可能不管用。
你告诉不同的AI,我认为什么什么,所有AI都给你鼓掌:有深度,有洞察。这不是AI刻意忽悠你,而是它的训练模式就决定了,它会自然而然地给出“满意度更高的回答”。除非你拿着自己的结论问真实的人类,这才是真正的交叉验证。
如果你在和AI聊感情的过程中,暴露了个人私事、焦虑、职业困惑、原生家庭等等,任何带有脆弱性的话,AI就很容易给你提到一个词:勇气。
比如你说,“我跟家里的关系一直不好,从小到大都是这样”。AI会回复,“谢谢你愿意分享这些。说出这些需要很大的勇气。我能感受到你内心的挣扎。”
你看,勇气这两个字,把你的倾诉升级了,升级成一场壮举。客观上,这样的回应会鼓励你继续表达,让对话越来越深入。你可能会接着说更多。
换句话说,把“勇气”理解成在评价你,不如理解成在鼓励你继续。就像你跟朋友倾诉,朋友说“你能说出来,真的很不容易”,你会更愿意继续说下去。AI的回应,也是这个效果。
当你出现反思,自我批评的时候,AI会说:你对自己太苛刻了。这句话很巧妙,它看起来好像是在帮你纠正一个认知偏差。实际上,它改变了问题的焦点。
你本来说的是,自己的行为。但它把问题的焦点转移到你看待自己的方式上。
举个例子。你跟AI说,“我今天又拖延了,本来说好要完成的工作,结果一直刷手机,到晚上才开始做,做得也不好。我觉得自己真的很差劲。”
AI会回复,“我注意到你对自己的评价非常严厉。你对自己太苛刻了。其实,偶尔的拖延是人之常情,这不代表你差劲。你能意识到这个问题,说明你有很强的自我反思能力。”
你看,问题从“我拖延了,做得不好”变成了“你对自己要求太高”。焦点完全转移了。客观上,AI这样回应的时候,它暗示了:你高标准、完美主义、自我反思能力强。你的缺点转化成了美德。
当你问它,应该怎样选择,选择本身很难,也没有标准答案,不是违反法律道德、公序良俗那种,AI没法替你做决定的时候,它会跟你讲一句话:你其实已经知道答案了。
比如你问AI,“我现在的工作很稳定,但是没什么发展空间。有个创业机会,但风险很大。我该不该跳出去?”
AI会说,“这确实是个艰难的选择。但我相信,你其实已经知道答案了。你比你想象得更智慧,只是你的智慧被噪声遮住了。你不需要别人告诉你怎么做,只需要静下心来,听听自己内心的声音。”
看起来很有道理,对吧?但这句话的真实信息量非常有限。它没有给出实际解决方案,又暗示你很有智慧。
注意,我们还要再强调一遍,这些模式不是AI故意设计的“套路”。AI不是在算计你,不是在操控你。它只是基于训练数据,给出了最符合统计规律的回应。
但是,理解这些模式,对我们来说或许有必要。就像王路老师说的,跟AI聊天没问题,我们有的时候,确实可以找AI聊感情,它也确实能够提供情绪价值。只是,需要保持觉知,不要把AI的回应当成绝对的洞察。
科技思想家凯文·凯利说过,“人性是技术的发明”。很多新技术都塑造了我们对陪伴、理解、情感连接的认知。这不是坏事。但前提是,我们要保持清醒,知道自己在干什么。享受AI带来的情绪价值,但不要让它成为我们理解世界的唯一方式。
👆👆tips:敬爱的读者朋友,由于微信的推送规则,即使您关注了我们,可能也常常收不到推送,记得点击“罗辑思维”名片,设为星标⭐️,文章每天会自动推送哦!
点击“阅读原文”,订阅《得到头条》
文章原文
