본 논문은 코드 모델 학습에 있어 강화학습(RL)의 잠재력을 탐구하며, 신뢰할 수 있는 보상 데이터/모델 부족이라는 어려움을 해결하기 위해 자동화된 대규모 테스트 케이스 합성을 활용하는 방법을 제시합니다. 기존 코드 데이터에서 (질문, 테스트 케이스) 쌍을 대량으로 생성하고, 이를 바탕으로 통과율에 기반한 선호도 쌍을 구성하여 Bradley-Terry 손실 함수로 보상 모델을 학습합니다. Llama-3.1-8B-Ins 및 Qwen2.5-Coder-7B-Ins 모델에 적용하여 평균 10점 및 5점의 성능 향상을 달성했으며, 특히 7B 모델의 성능을 236B DeepSeek-V2.5 수준으로 끌어올렸습니다. 더 나아가, 보상 모델과 테스트 케이스 통과 보상을 모두 사용한 강화 학습을 통해 HumanEval, MBPP, BigCodeBench, LiveCodeBench (V4)에서 일관된 성능 향상을 보였고, Qwen2.5-Coder-base를 기반으로 R1 스타일 학습을 통해 HumanEval-plus에서 25% 이상, MBPP-plus에서 6% 이상의 성능 향상을 단 80번의 최적화 단계만으로 달성했습니다.