본 논문은 대규모 언어 모델(LLM)의 코드 생성 능력이 외부 라이브러리 API의 빈번한 업데이트에 적응하지 못하는 한계를 해결하기 위해 ReCode 프레임워크를 제안합니다. ReCode는 인간 프로그래머의 API 변경 적응 방식을 모방하여, 약 2,000개의 데이터를 이용해 LLM이 버전 마이그레이션을 수행하도록 학습시키고, 수정된 문자열 유사도 측정법을 강화 학습의 보상으로 사용합니다. 실험 결과, ReCode는 특히 미지의 CodeUpdateArena 작업에서 LLM의 코드 생성 성능을 크게 향상시키며, 지도 학습 파인튜닝에 비해 일반적인 코드 생성 능력에 미치는 영향이 적다는 것을 보여줍니다. 다양한 LLM과 강화 학습 알고리즘(GRPO 및 DAPO)에 ReCode를 적용하여 일관된 성능 향상을 달성했으며, Qwen2.5-Coder-7B는 32B 매개변수 코드 지시 튜닝 모델 및 동일한 아키텍처의 추론 모델보다 우수한 성능을 보였습니다. 소스 코드는 깃허브에서 공개됩니다.