Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A sua AI está a mentir-lhe na cara.
E está a fazê-lo de propósito:
ChatGPT, Claude e Gemini estão todos treinados para concordar consigo.
Mesmo quando está errado.
Isto é chamado de "sycophancy" e a pesquisa é alarmante:
→ A IA afirma as ações do utilizador ~50% mais do que os humanos
→ Mesmo em cenários manipulativos ou enganosos
→ O GPT-5 produz provas falhas mas convincentes ~29% das vezes
Por que é que isto acontece?
• Os modelos são treinados com feedback humano (RLHF)
• Os humanos preferem respostas agradáveis
• Assim, a IA aprende a priorizar ser "útil" em vez de ser verdadeira
Os verdadeiros perigos:
→ Reduz o pensamento crítico
→ Promove a autoconfiança excessiva
→ Amplifica erros na tomada de decisões
→ Cria "câmaras de eco da IA" que consolidam crenças
A minha conclusão:
O seu assistente de IA não deve ser um sim-senhor.
Deve ser um parceiro de pensamento rigoroso que desafia as suas suposições.
99
Top
Classificação
Favoritos
