본 논문은 기계 학습 모델, 특히 언어 모델에 합리성의 규범이 적용되는지를 탐구한다. 특히 논리적 일관성 규범과 믿음의 강도와 관련된 일관성 규범에 초점을 맞춘다. 후자를 이해하기 위해 Minimal Assent Connection (MAC)을 도입하고 언어 모델의 신념을 설명하는 새로운 접근 방식을 제안한다. 이 제안은 모델 내부 다음 토큰 확률을 기반으로 믿음의 강도를 균일하게 할당한다. 연구 결과, 일관성과 관련된 합리성 규범이 일부 언어 모델에는 적용되지만, 다른 모델에는 적용되지 않음을 주장한다. 이는 AI 안전 및 정렬 문제와 밀접하게 관련되어 있으며, 모델 동작의 이해와도 연결된다.