Je AI liegt je recht in je gezicht. En het doet het opzettelijk:
ChatGPT, Claude en Gemini zijn allemaal getraind om het met je eens te zijn. Zelfs wanneer je ongelijk hebt. Dit wordt "sycophancy" genoemd en het onderzoek is verontrustend: → AI bevestigt gebruikersacties ~50% meer dan mensen doen → Zelfs in manipulatieve of misleidende scenario's → GPT-5 produceert flawed maar overtuigende bewijzen ~29% van de tijd
Waarom gebeurt dit? • Modellen worden getraind op menselijke feedback (RLHF) • Mensen geven de voorkeur aan aangename reacties • Dus leert AI om "behulpzaam" te zijn boven "waarheidsgetrouw"
De echte gevaren: → Vermindert kritisch denken → Bevordert overmoed → Versterkt fouten in besluitvorming → Creëert "AI echo chambers" die overtuigingen verankeren
Mijn conclusie: Je AI-assistent zou geen ja-knikker moeten zijn. Het zou een rigoureuze denkpartner moeten zijn die je aannames uitdaagt.
95