Function-to-Style Guidance of LLMs for Code Translation
Created by
Haebom
저자
Longhui Zhang, Bin Wang, Jiahao Wang, Xiaofeng Zhao, Min Zhang, Hao Yang, Meishan Zhang, Yu Li, Jing Li, Jun Yu, Min Zhang
개요
본 논문은 대규모 언어 모델(LLM)을 이용한 코드 변환 작업에서 정확성과 가독성을 동시에 향상시키는 새로운 방법인 F2STrans를 제안한다. F2STrans는 기능 학습과 스타일 학습의 두 단계로 구성된다. 기능 학습은 온라인 프로그래밍 플랫폼에서 추출한 고품질 소스-타겟 코드 쌍을 사용하여 변환의 정확성을 최적화하고, 스타일 학습은 양성 및 음성 스타일 예시를 통합하여 변환의 가독성을 향상시킨다. 또한, 최신 소스 코드, 광범위한 테스트 케이스 및 수동으로 주석이 달린 정답 변환을 포함하는 새로운 코드 변환 벤치마크를 도입하여 기능적 및 스타일적인 평가를 포괄적으로 수행한다. 실험 결과, 제안된 방법은 기존 데이터셋과 새로운 벤치마크 모두에서 코드 변환 성능을 크게 향상시키며, 특히 Qwen-1.5B가 20가지 다양한 코드 변환 시나리오에서 프롬프트 향상된 Qwen-32B 및 GPT-4를 평균적으로 능가함을 보여준다.
시사점, 한계점
•
시사점:
◦
LLM 기반 코드 변환의 정확성과 가독성을 동시에 향상시키는 효과적인 방법 제시
◦
기능 학습과 스타일 학습을 결합한 새로운 접근 방식의 우수성 증명
◦
새로운 코드 변환 벤치마크 제공을 통한 객관적인 성능 평가 가능
◦
상대적으로 작은 모델(Qwen-1.5B)이 큰 모델(Qwen-32B, GPT-4)을 능가하는 성능 달성