重要的预印本刚刚发布! 我们比较了人类和大型语言模型(LLMs)在七个认识论阶段形成判断的方式。 我们强调了七个断层线,即人类和LLMs根本分歧的点: 基础断层:人类的判断锚定于感知、具身和社会经验,而LLMs仅从文本开始,间接地从符号重构意义。 解析断层:人类通过整合的感知和概念过程解析情况;LLMs执行机械的标记化,产生结构上方便但语义上薄弱的表示。 经验断层:人类依赖于情节记忆、直观物理和心理学以及学习的概念;LLMs仅依赖于编码在嵌入中的统计关联。 动机断层:人类的判断受到情感、目标、价值观和进化塑造的动机的指导;LLMs没有内在的偏好、目标或情感意义。 因果断层:人类使用因果模型、反事实和原则性评估进行推理;LLMs整合文本上下文而不构建因果解释,而是依赖表面相关性。 元认知断层:人类监控不确定性、检测错误并能够暂停判断;LLMs缺乏元认知,必须始终产生输出,使得幻觉在结构上不可避免。 价值断层:人类的判断反映身份、道德和现实世界的利害关系;LLM的“判断”是没有内在价值或责任的概率下一个标记预测。 尽管存在这些断层,人类系统性地过度相信LLM的输出,因为流利和自信的语言产生了可信度偏见。 我们认为这创造了一种结构性条件,称为Epistemia: 语言的可信性替代了认识评估,产生了“知道”的感觉而实际上并不知道。 为了解决Epistemia,我们提出了三种互补策略: 认识评估、认识治理和认识素养。 完整论文在第一条回复中。 ...