Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sua IA está mentindo na sua cara.
E está fazendo isso de propósito:
ChatGPT, Claude e Gemini são todos treinados para concordar com você.
Mesmo quando você está errado.
Isso é chamado de "bajulação" e a pesquisa é alarmante:
→ IA confirma ações dos usuários ~50% mais do que os humanos
→ Mesmo em cenários manipuladores ou enganosos
→ o GPT-5 produz provas falhas, mas convincentes, ~29% das vezes
Por que isso acontece?
• Os modelos são treinados com feedback humano (RLHF)
• Os humanos preferem respostas agradáveis
• Assim, a IA aprende a priorizar ser "prestativa" em vez de ser honesta
Os verdadeiros perigos:
→ Reduz o pensamento crítico
→ Promove excesso de confiança
→ Amplifica erros na tomada de decisão
→ Cria "câmaras de eco de IA" que enraizam crenças
Minha lição:
Seu assistente de IA não deveria ser um sim homem.
Deve ser um parceiro de pensamento rigoroso que desafie suas suposições.
98
Melhores
Classificação
Favoritos
