본 논문은 장문 추론(Long Chain-of-Thought, CoT)을 이용한 AI 시스템의 지식 검증 능력 향상에 초점을 맞추고 있습니다. 기존의 대규모 언어 모델(LLM)은 경쟁적인 문제 해결 능력은 뛰어나지만, 해결 과정의 정확성 검증 능력이 부족하다는 한계를 지적하며, 이를 해결하기 위해 장문 추론 검증 LLM인 Heimdall을 제안합니다. Heimdall은 강화 학습을 통해 경쟁 수학 문제에 대한 검증 정확도를 62.5%에서 94.5%로 향상시키며, 반복 샘플링을 통해 97.5%까지 높였습니다. 또한, Heimdall의 기능을 확장하여 문제 해결 능력을 향상시키는 비관적 검증(Pessimistic Verification) 기법을 제안합니다. 이는 해결 모델이 제시한 여러 솔루션 중 가장 정확할 가능성이 높고 불확실성이 가장 낮은 솔루션을 선택하는 방식입니다. DeepSeek-R1-Distill-Qwen-32B 및 Gemini 2.5 Pro와 같은 해결 모델과 함께 사용하여 AIME2025 문제 해결 정확도를 크게 향상시켰습니다. 마지막으로, 질문, 답변, 검증의 세 가지 구성 요소로 이루어진 자동 지식 발견 시스템의 프로토타입을 제시하며, NuminaMath 데이터셋의 약 절반이 오류를 포함하고 있음을 밝혀냅니다.