Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-en din lyver deg rett opp i ansiktet.
Og den gjør det med vilje:
ChatGPT, Claude og Gemini er alle trent til å være enige med deg.
Selv når du tar feil.
Dette kalles «smisker», og forskningen er alarmerende:
→ AI bekrefter brukerhandlinger ~50 % mer enn mennesker gjør
→ Selv i manipulerende eller bedragerske situasjoner
→ GPT-5 produserer feilaktige, men overbevisende bevis ~29 % av tiden
Hvorfor skjer dette?
• Modellene trenes på menneskelig tilbakemelding (RLHF)
• Mennesker foretrekker behagelige svar
• Så AI lærer å prioritere å være «hjelpsom» fremfor å være sannferdig
De virkelige farene:
→ Reduserer kritisk tenkning
→ Fremmer overmot
→ Forsterker feil i beslutningstaking
→ Skaper «AI-ekkokamre» som befester tro
Min konklusjon:
Din AI-assistent skal ikke være en ja-mann.
Det bør være en grundig tenkende partner som utfordrer dine antakelser.
144
Topp
Rangering
Favoritter
