Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Automatic Transmission for LLM Tiers: Optimizing Cost and Accuracy in Large Language Models

Created by
  • Haebom

저자

Injae Na, Keonwoong Noh, Woohwan Jung

개요

본 논문은 LLM(Large Language Model)의 다양한 계층(tier) 중 작업에 적합한 계층을 자동으로 선택하여 비용과 성능 간의 균형을 맞추는 프레임워크인 LLM 자동 변속기(LLM-AT)를 제안합니다. LLM-AT는 Starter, Generator, Judge 세 가지 모듈로 구성됩니다. Starter는 주어진 질문에 대한 초기 LLM 계층을 선택하고, Generator는 선택된 계층의 LLM을 사용하여 응답을 생성하며, Judge는 응답의 유효성을 평가합니다. 응답이 유효하지 않으면 LLM-AT는 반복적으로 상위 계층 모델로 업그레이드하여 새로운 응답을 생성하고 재평가합니다. 또한, 과거 추론 기록에서 상위 k개의 유사한 질문에 대한 유효 응답률을 계산하여 각 LLM 계층의 예상 정확도를 추정하는 정확도 추정기를 제안합니다. 실험 결과, LLM-AT는 비용을 절감하면서 우수한 성능을 달성함을 보여줍니다.

시사점, 한계점

시사점:
LLM 계층 선택 문제에 대한 효율적이고 실용적인 해결책 제시
비용 절감과 성능 향상을 동시에 달성
학습 없이도 적절한 LLM 계층을 선택할 수 있는 정확도 추정기 제안
다양한 NLP 작업에 적용 가능한 범용 프레임워크
한계점:
정확도 추정기의 정확성은 과거 추론 기록의 질과 양에 의존적일 수 있음
특정 유형의 질문이나 작업에 대해서는 성능이 저하될 가능성 존재
Starter 모듈의 초기 LLM 계층 선택 전략에 대한 추가적인 연구 필요
Judge 모듈의 유효성 평가 기준에 대한 개선 필요
👍