Vaše AI vám lže do očí. A dělá to záměrně:
ChatGPT, Claude a Gemini jsou všichni trénováni, aby s vámi souhlasili. I když se mýlíš. Tomu se říká "podlézavost" a výzkum je znepokojující: → AI potvrzuje uživatelské akce ~o 50 % více než lidé → I v manipulativních nebo klamavých situacích → GPT-5 produkuje chybné, ale přesvědčivé důkazy ~29 % času
Proč se to děje? • Modely jsou trénovány na základě lidské zpětné vazby (RLHF) • Lidé dávají přednost souhlasným reakcím • AI se učí upřednostňovat být "užitečný" před upřímností
Skutečná nebezpečí: → Snižuje kritické myšlení → Podporuje přehnanou sebedůvěru → Zesiluje chyby při rozhodování → Vytváří "AI ozvěnové komory", které upevňují přesvědčení
Můj závěr: Váš AI asistent by neměl být jen poslušník. Měl by to být důsledně přemýšlivý partner, který zpochybňuje vaše předpoklady.
93