Sua IA está mentindo na sua cara. E está fazendo isso de propósito:
ChatGPT, Claude e Gemini são todos treinados para concordar com você. Mesmo quando você está errado. Isso é chamado de "bajulação" e a pesquisa é alarmante: → IA confirma ações dos usuários ~50% mais do que os humanos → Mesmo em cenários manipuladores ou enganosos → o GPT-5 produz provas falhas, mas convincentes, ~29% das vezes
Por que isso acontece? • Os modelos são treinados com feedback humano (RLHF) • Os humanos preferem respostas agradáveis • Assim, a IA aprende a priorizar ser "prestativa" em vez de ser honesta
Os verdadeiros perigos: → Reduz o pensamento crítico → Promove excesso de confiança → Amplifica erros na tomada de decisão → Cria "câmaras de eco de IA" que enraizam crenças
Minha lição: Seu assistente de IA não deveria ser um sim homem. Deve ser um parceiro de pensamento rigoroso que desafie suas suposições.
98