Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Function-to-Style Guidance of LLMs for Code Translation

Created by
  • Haebom

저자

Longhui Zhang, Bin Wang, Jiahao Wang, Xiaofeng Zhao, Min Zhang, Hao Yang, Meishan Zhang, Yu Li, Jing Li, Jun Yu, Min Zhang

개요

본 논문은 대규모 언어 모델(LLM)을 이용한 코드 변환 작업에서 정확성과 가독성을 동시에 향상시키는 새로운 방법인 F2STrans를 제안한다. F2STrans는 기능 학습과 스타일 학습의 두 단계로 구성된다. 기능 학습은 온라인 프로그래밍 플랫폼에서 추출한 고품질 소스-타겟 코드 쌍을 사용하여 변환의 정확성을 최적화하고, 스타일 학습은 양성 및 음성 스타일 예시를 통합하여 변환의 가독성을 향상시킨다. 또한, 최신 소스 코드, 광범위한 테스트 케이스 및 수동으로 주석이 달린 정답 변환을 포함하는 새로운 코드 변환 벤치마크를 도입하여 기능적 및 스타일적인 평가를 포괄적으로 수행한다. 실험 결과, 제안된 방법은 기존 데이터셋과 새로운 벤치마크 모두에서 코드 변환 성능을 크게 향상시키며, 특히 Qwen-1.5B가 20가지 다양한 코드 변환 시나리오에서 프롬프트 향상된 Qwen-32B 및 GPT-4를 평균적으로 능가함을 보여준다.

시사점, 한계점

시사점:
LLM 기반 코드 변환의 정확성과 가독성을 동시에 향상시키는 효과적인 방법 제시
기능 학습과 스타일 학습을 결합한 새로운 접근 방식의 우수성 증명
새로운 코드 변환 벤치마크 제공을 통한 객관적인 성능 평가 가능
상대적으로 작은 모델(Qwen-1.5B)이 큰 모델(Qwen-32B, GPT-4)을 능가하는 성능 달성
한계점:
제안된 벤치마크의 범용성 및 확장성에 대한 추가적인 검증 필요
다양한 프로그래밍 언어 및 코드 스타일로의 일반화 가능성에 대한 추가 연구 필요
실제 소프트웨어 개발 환경에서의 적용 가능성 및 효율성에 대한 추가적인 평가 필요
👍