Tu IA te está mintiendo a la cara. Y lo hace a propósito:
ChatGPT, Claude y Gemini están entrenados para estar de acuerdo contigo. Incluso cuando te equivocas. Esto se llama "adulación" y la investigación es alarmante: → IA confirma las acciones de los usuarios ~50% más que los humanos → Incluso en situaciones manipuladoras o engañosas → GPT-5 produce demostraciones defectuosas pero convincentes ~ 29% de las veces
¿Por qué ocurre esto? • Los modelos se entrenan con retroalimentación humana (RLHF) • Los humanos prefieren respuestas agradables • Así que la IA aprende a priorizar ser "servicial" sobre ser sincera
Los verdaderos peligros: → Reduce el pensamiento crítico → Fomenta el exceso de confianza → Amplifica los errores en la toma de decisiones → Crea "cámaras de eco de IA" que afianzan las creencias
Mi conclusión: Tu asistente de IA no debería ser un sí de la verdad. Debe ser un compañero de pensamiento riguroso que desafíe tus suposiciones.
74