본 논문은 양자 회로의 오류 허용 능력 향상을 위해 대규모 언어 모델(LLM)을 강화 학습(RL) 기법으로 미세 조정하는 연구를 다룹니다. Granite-20B-Code 및 StarCoder와 같은 기존 LLM이 종종 오류가 있는 Qiskit 코드를 생성하는 문제를 해결하기 위해, Qwen2.5-Coder-32B 모델을 GRPO와 ORPO라는 두 가지 RL 방법을 사용하여 풍부하게 주석이 달린 합성 데이터셋으로 미세 조정했습니다. 실험 결과, Qiskit HumanEval 벤치마크에서 ORPO는 56.29%의 Pass@1 성능을 달성하여 Granite-8B-QK보다 약 10% 향상되었으며, GRPO는 49%를 달성했습니다. 일반적인 목적의 기준 모델보다 우수한 성능을 보였으나, 고난도 작업에서는 여전히 해결하지 못하는 한계를 보였습니다.