본 논문은 실행 가능한 코드 데이터의 확장성이 언어 모델의 소프트웨어 엔지니어링 능력 향상에 중요함을 강조합니다. 기존 연구에서 실행 테스트를 기반으로 대규모 실행 가능 코드 저장소를 구축하는 것은 노동 집약적이고 시간이 많이 걸리며 전문 지식에 의존하는 어려움이 있었습니다. 본 논문은 이러한 어려움의 주요 원인이 다양한 저장소에 대한 테스트 환경의 자동 구축에 있음을 지적하고, 이 문제를 해결하기 위해 Repo2Run을 제시합니다. Repo2Run은 LLM 기반 에이전트로, 다양한 저장소에 대한 실행 가능한 테스트 환경 구축을 자동화하는 것을 목표로 합니다. Repo2Run은 Docker 이미지를 반복적으로 구축하고, 구축 피드백을 기반으로 단위 테스트를 실행하며, Dockerfile을 합성하여 전체 파이프라인이 성공적으로 실행될 때까지 작업을 수행합니다. 420개의 Python 저장소를 포함하는 벤치마크를 사용하여 평가한 결과, Repo2Run은 86.0%의 성공률을 달성하여 기존 SWE-agent보다 77.0% 향상된 성능을 보였습니다. Repo2Run의 리소스는 GitHub에서 공개되었습니다.