本文系统地考察了 21 个开源大型语言模型 (LLM) 在语法知识和词汇预测方面的内省能力 (introspection)。鉴于模型的内部语言知识理论上可以通过字符串概率的直接测量来支持,我们评估了模型对元语言提示的响应对其内部知识的反映程度。我们提出了一个新颖的内省指标,用于衡量模型的提示响应预测其自身字符串概率的程度,并评估其是否优于其他具有类似内部知识的模型的预测。虽然元语言提示和概率比较都达到了较高的任务准确率,但我们没有发现任何证据表明 LLM 拥有特权的“自我访问”。通过全面评估各种开源模型并控制模型相似性,我们提供了新的证据,支持以下断言:LLM 无法进行内省,并且提示响应不应与模型的语言泛化相混淆。