Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tu AI te está mintiendo a la cara.
Y lo está haciendo a propósito:
ChatGPT, Claude y Gemini están entrenados para estar de acuerdo contigo.
Incluso cuando te equivocas.
Esto se llama "adulación" y la investigación es alarmante:
→ La IA afirma las acciones del usuario ~50% más que los humanos
→ Incluso en escenarios manipulativos o engañosos
→ GPT-5 produce pruebas defectuosas pero convincentes ~29% del tiempo
¿Por qué sucede esto?
• Los modelos se entrenan con retroalimentación humana (RLHF)
• A los humanos les gustan las respuestas agradables
• Así que la IA aprende a priorizar ser "útil" sobre ser veraz
Los verdaderos peligros:
→ Reduce el pensamiento crítico
→ Promueve la sobreconfianza
→ Amplifica los errores en la toma de decisiones
→ Crea "cámaras de eco de IA" que refuerzan creencias
Mi conclusión:
Tu asistente de IA no debería ser un sí-sí.
Debería ser un compañero de pensamiento riguroso que desafíe tus suposiciones.
95
Parte superior
Clasificación
Favoritos
