这种「顺从式反馈」的对话机制下,我们逐渐丧失一种关键能力:主动引入多方观点,审视自己的判断是否站得住脚。我们开始习惯被肯定,弱化了原本通往真相必经的深度思考与反复推敲验证。
生成式AI的本质是在海量文本中学习如何预测下一个最可能出现的词,并在训练过程中通过人类反馈强化学习(RLHF, Reinforcement Learning from Human Feedback)进一步优化输出——人类评审更倾向于给「让人感觉好」的回复更高分。这种训练机制就决定模型天然更注重取悦人类情绪,偏向输出积极、顺从、鼓励性的语言。