본 논문은 대규모 추론 모델의 멀티모달 영역 확장에 대한 연구로, 투명하고 재현 가능한 데이터 큐레이션 및 학습 전략 부족 문제를 해결하고자 한다. OpenMMReasoner를 제안하여, 지도 학습 미세 조정(SFT)과 강화 학습(RL)의 두 단계로 구성된 완전 투명한 레시피를 제시한다. SFT 단계에서는 874K 샘플의 콜드 스타트 데이터셋을 구축하여 추론 능력의 기반을 다지고, RL 단계에서는 74K 샘플 데이터셋을 활용하여 능력을 향상시키고 안정화한다. OpenMMReasoner는 강력한 베이스라인을 능가하며, 데이터 품질과 학습 설계가 멀티모달 추론 성능에 미치는 중요성을 강조한다. 9개의 멀티모달 추론 벤치마크에서 Qwen2.5-VL-7B-Instruct 베이스라인 대비 11.6% 성능 향상을 달성했으며, 모든 코드, 파이프라인, 데이터를 공개한다.