자연어 질문을 코드 저장소 파일 경로에 매핑하는 모델의 성능 저하 문제를 해결하기 위해, 모델을 최신 상태로 유지하는 방법을 연구합니다. 이를 위해, (A) 전체 재학습, (B) 문맥 내 학습 (ICL), (C) 델타 기반 점진적 미세 조정 (Inc-FT)의 세 가지 업데이트 전략을 비교합니다. Flask, SQLAlchemy, Pandas, Poetry 저장소에 대해 alias-aware 평가 프로토콜을 사용하여 실험하고, Inc-FT가 가장 좋은 균형을 제공하며, ICL은 훈련이 불가능할 때 빠르고, 전체 재학습은 최대 새로운 코드 정확도가 중요할 때 최고의 성능을 보임을 확인합니다. Git diff 기반 Inc-FT와 전체 파일 기반 Inc-FT를 비교하여, rename/delete가 많은 경우 diff가, 동작 변경이 많은 경우 전체 파일이 우수함을 보입니다.