Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation

Created by
  • Haebom
Category
Empty

저자

Shashikant Ilager, Lukas Florian Briem, Ivona Brandic

개요

본 논문은 대규모 언어 모델(LLM)의 추론 과정에서의 에너지 소모 문제를 해결하기 위한 프레임워크인 GREEN-CODE를 제안한다. GREEN-CODE는 강화학습(RL) 에이전트를 활용하여 LLM 추론 중 동적으로 조기 종료(early exit)를 수행함으로써 정확도, 지연 시간, 에너지 소비량 간의 균형을 맞춘다. Llama 3.2 3B와 OPT 2.7B 두 개의 오픈소스 LLM과 JavaCorpus 및 PY150 데이터셋을 사용하여 평가한 결과, 코드 생성 작업에서 평균 23-50%의 에너지 소비 감소를 달성하면서 정확도는 크게 저하되지 않았음을 보였다.

시사점, 한계점

시사점:
LLM 추론 과정의 에너지 효율성 향상을 위한 새로운 방법 제시
강화학습 기반의 동적 조기 종료 전략을 통해 에너지 소비 감소와 정확도 유지의 균형 달성 가능성 확인
지속 가능한 LLM 활용을 위한 실질적인 해결책 제시
한계점:
평가에 사용된 LLM과 데이터셋의 종류가 제한적임. 다양한 LLM과 데이터셋에 대한 추가적인 실험 필요.
RL 에이전트 훈련에 필요한 시간과 자원에 대한 고려 필요.
실제 상용 환경에서의 성능과 에너지 효율성에 대한 검증 필요.
👍