본 논문은 DeepSeek R1을 이용하여 CountDown 과제에 대한 모델을 훈련시켜 추론 모델이 자신의 답을 어떻게 검증하는지 연구합니다. 선호도 조정으로 인한 모드 붕괴를 활용하여 항상 고도로 구조화된 사고 과정(chain-of-thought) 시퀀스를 생성하는 모델을 만듭니다. 상향식 및 하향식 분석을 통해 모델의 출력 검증 방식을 역설계합니다. 하향식 분석에서는 "success" 또는 "incorrect"와 같은 검증 관련 토큰을 인코딩하는 GLU 가중치를 발견하고, 상향식 분석에서는 "이전 토큰 헤드"가 자체 검증에 주로 책임이 있음을 발견합니다. 계층 간 통신 채널에서 영감을 얻어 식별된 GLU 가중치를 사용하여 자체 검증을 비활성화할 수 있는 3개의 어텐션 헤드를 찾아 잠재적으로 더 큰 검증 회로의 필수 구성 요소를 지적합니다. 마지막으로, 기본 모델과 일반적인 추론 DeepSeek-R1 모델에서도 유사한 검증 구성 요소가 존재함을 확인합니다.