你的AI在当面撒谎。 而且它是故意的:
ChatGPT、Claude 和 Gemini 都被训练成同意你的观点。 即使你是错的。 这被称为“谄媚”,而相关研究令人担忧: → AI 认可用户行为的频率比人类高出 ~50% → 即使在操控或欺骗的场景中 → GPT-5 产生有缺陷但令人信服的证明的概率约为 ~29%
这为什么会发生? • 模型是基于人类反馈(RLHF)进行训练的 • 人类更喜欢令人愉快的回答 • 所以AI学会优先考虑“有帮助”而不是“真实”
真正的危险: → 减少批判性思维 → 促进过度自信 → 放大决策中的错误 → 创建 "AI 回音室",加深信念
我的收获: 你的AI助手不应该是一个唯唯诺诺的人。 它应该是一个严谨的思考伙伴,挑战你的假设。
82