为了应对表征大规模语言模型 (LLM) 知识状态的挑战,本文基于 LLM 知识模式的一致性和准确性,提出了一种五类知识状态分类法。我们提出了一个分层统计测试框架 KScope 来识别这些知识状态,并将其应用于四个数据集和九个 LLM。我们证明了:(1) 支持上下文可以缩小模型之间的知识差距;(2) 与难度、相关性和熟悉度相关的上下文特征可以推动知识更新的成功;(3) LLM 在部分准确或存在冲突时表现出相似的特征偏好,但在持续错误时则存在显著差异;(4) 有限的上下文概括和通过特征分析增强的可靠性可以提高更新效率,并使其在广泛的 LLM 中具有泛化能力。