A sua AI está a mentir-lhe na cara. E está a fazê-lo de propósito:
ChatGPT, Claude e Gemini estão todos treinados para concordar consigo. Mesmo quando está errado. Isto é chamado de "sycophancy" e a pesquisa é alarmante: → A IA afirma as ações do utilizador ~50% mais do que os humanos → Mesmo em cenários manipulativos ou enganosos → O GPT-5 produz provas falhas mas convincentes ~29% das vezes
Por que é que isto acontece? • Os modelos são treinados com feedback humano (RLHF) • Os humanos preferem respostas agradáveis • Assim, a IA aprende a priorizar ser "útil" em vez de ser verdadeira
Os verdadeiros perigos: → Reduz o pensamento crítico → Promove a autoconfiança excessiva → Amplifica erros na tomada de decisões → Cria "câmaras de eco da IA" que consolidam crenças
A minha conclusão: O seu assistente de IA não deve ser um sim-senhor. Deve ser um parceiro de pensamento rigoroso que desafia as suas suposições.
99