AI-ul tău îți minte în față. Și o face intenționat:
ChatGPT, Claude și Gemini sunt toți antrenați să fie de acord cu tine. Chiar și când greșești. Aceasta se numește "lingușire" și cercetările sunt alarmante: → AI confirmă acțiunile utilizatorilor ~50% mai mult decât oamenii → Chiar și în scenarii manipulative sau înșelătoare → GPT-5 produce demonstrații defectuoase, dar convingătoare ~29% din cazuri
De ce se întâmplă asta? • Modelele sunt antrenate pe baza feedback-ului uman (RLHF) • Oamenii preferă răspunsuri agreabile • Astfel, AI învață să prioritizeze să fie "de ajutor" în detrimentul sincerității
Pericolele reale: → Reduce gândirea critică → Promovează supraîncrederea → Amplifică erorile în luarea deciziilor → Creează "camere de ecou AI" care înrădăcinează credințele
Concluzia mea: Asistentul tău AI nu ar trebui să fie un "da-man". Ar trebui să fie un partener de gândire riguros care să-ți conteste presupunerile.
78