대규모 언어 모델(LLM)의 코드 생성 능력 향상을 위해, 다양하고 인간의 추론 방식에 부합하는 대규모 데이터셋 부족 문제를 해결하고자 함. 약 80만 개의 instruction-reasoning-code-test 4중 구조의 합성 데이터를 생성하는 확장 가능한 파이프라인을 제시. 이 데이터는 과제, 단계별 추론 과정, 작동하는 해결책, 실행 가능한 테스트를 포함하여 모델이 문제 해결의 '방법'을 학습할 수 있도록 함. 파이프라인은 큐레이션된 경진대회 문제, 관련성 분류기에 의해 필터링된 웹 마이닝 콘텐츠, 추론 패턴에 따른 데이터 확장, 다단계 실행 기반 검증을 결합. 유전자 변이 알고리즘을 통해 과제 다양성을 높이고 추론 과정과 코드 구현 간의 일관성을 유지함. 이 데이터셋으로 LLM을 미세 조정하면 코딩 벤치마크에서 일관된 성능 향상을 보이며, 모델 크기 확장, 아키텍처 간 일반화, 동일한 샘플 예산 하에서 기존의 오픈 소스 모델보다 우수한 성능을 보임.