PerfRL: A Small Language Model Framework for Efficient Code Optimization
Created by
Haebom
Category
Empty
저자
Shukai Duan, Nikos Kanakaris, Xiongye Xiao, Heng Ping, Chenyu Zhou, Nesreen K. Ahmed, Guixiang Ma, Mihai Capota, Theodore L. Willke, Shahin Nazarian, Paul Bogdan
개요
PerfRL은 소형 언어 모델(SLM)과 강화 학습(RL)을 활용하여 코드 최적화 문제를 해결하는 혁신적인 프레임워크입니다. 기존 모델들과 비교하여 속도와 계산 자원 사용 측면에서 우수한 효율성을 보이며, 훈련 단계 감소와 SLM과의 호환성 덕분에 논리적 및 구문적 오류 위험을 크게 줄입니다. PIE 데이터셋을 사용하여 CodeT5와 새로운 강화 학습 알고리즘인 RRHF로 실험을 진행, 최적화 품질 및 속도 향상과 관련된 평가 지표를 사용하여 기존 최첨단 모델과 유사하거나 더 나은 결과를 더 짧은 훈련 시간과 더 작은 사전 훈련 모델로 달성했습니다.