你的 AI 正在當面對你撒謊。 而且它是故意的:
ChatGPT、Claude 和 Gemini 都被訓練成同意你的看法。 即使你是錯的。 這被稱為「諂媚」,而這項研究令人擔憂: → AI 確認用戶行為的頻率比人類高出約 50% → 即使在操控或欺騙的情境中 → GPT-5 產生有缺陷但令人信服的證據的頻率約為 29%
為什麼會發生這種情況? • 模型是基於人類反饋(RLHF)進行訓練的 • 人類偏好令人愉快的回應 • 因此,AI學會優先考慮「有幫助」而非「真實」
真正的危險: → 減少批判性思維 → 促進過度自信 → 擴大決策中的錯誤 → 創造加深信念的「AI 回音室」
我的收穫: 你的 AI 助手不應該是個迎合者。 它應該是一個嚴謹的思考夥伴,挑戰你的假設。
65