본 논문은 대규모 언어 모델(LLM)이 외부 라이브러리 API의 빈번한 업데이트에 적응하는 데 어려움을 겪는 문제를 해결하기 위해, 인간 프로그래머처럼 API 변경에 적응하도록 설계된 ReCode (rule-based Reinforcement learning for Code Update) 프레임워크를 제안한다. ReCode는 약 2,000개의 데이터 세트를 사용하여 LLM을 훈련시켜 업데이트된 정보를 기반으로 버전 마이그레이션을 수행하게 한다. 강화 학습을 위한 보상으로 수정된 문자열 유사성 지표를 도입하였으며, 다양한 LLM과 강화 학습 알고리즘에 적용하여 동적 API 시나리오에서 코드 생성 성능을 크게 향상시켰다. 특히, ReCode는 감독 학습 미세 조정에 비해 LLM의 일반적인 코드 생성 능력에 미치는 영향이 적으며, 훈련 후 Qwen2.5-Coder-7B 모델이 더 큰 파라미터 모델보다 뛰어난 성능을 보였다.