Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Acaba de salir un preprint importante!
Comparamos cómo los humanos y los LLMs forman juicios a lo largo de siete etapas epistemológicas.
Destacamos siete líneas de falla, puntos en los que humanos y LLMs divergen fundamentalmente:
El defecto de la Grounding: Los humanos anclan el juicio en la percepción, la incorporación y la experiencia social, mientras que los LLMs comienzan solo con el texto, reconstruyendo el significado indirectamente a partir de símbolos.
El defecto del análisis sintáctico: Los humanos analizan situaciones mediante procesos perceptivos y conceptuales integrados; Los LLMs realizan tokenización mecánica que da lugar a una representación estructuralmente conveniente pero semánticamente delgada.
El defecto de la experiencia: Los humanos dependen de la memoria episódica, la física intuitiva y la psicología, y conceptos aprendidos; Los LLMs dependen únicamente de asociaciones estadísticas codificadas en embeddings.
La falta de motivación: El juicio humano está guiado por emociones, objetivos, valores y motivaciones evolutivas; Los LLM no tienen preferencias, objetivos ni significado afectivo intrínsecos.
La falta de causalidad: Los humanos razonamos usando modelos causales, contrafactuales y evaluación basada en principios; Los LLMs integran el contexto textual sin construir explicaciones causales, dependiendo en cambio de correlaciones superficiales.
La falla metacognitiva: Los humanos monitorizan la incertidumbre, detectan errores y pueden suspender el juicio; Los LLMs carecen de metacognición y siempre deben producir una salida, haciendo que las alucinaciones sean estructuralmente inevitables.
La falta de valor: Los juicios humanos reflejan identidad, moralidad y intereses reales; Los "juicios" de los LLM son predicciones probabilísticas para el siguiente token sin valoración intrínseca ni rendición de cuentas.
A pesar de estas fallas, los humanos creen sistemáticamente en exceso los resultados de los LLM, porque un lenguaje fluido y seguro genera un sesgo de credibilidad.
Argumentamos que esto crea una condición estructural, epistemia:
La plausibilidad lingüística sustituye a la evaluación epistémica, produciendo la sensación de saber sin saber realmente.
Para abordar la epistemia, proponemos tres estrategias complementarias: evaluación epistémica, gobernanza epistémica y alfabetización epistémica.
Artículo completo en la primera respuesta.
Joint con @Walter4C y @matjazperc

Populares
Ranking
Favoritas
