Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

GSQ-Tuning: Group-Shared Exponents Integer in Fully Quantized Training for LLMs On-Device Fine-tuning

Created by
  • Haebom

저자

Sifan Zhou, Shuo Wang, Zhihang Yuan, Mingjia Shi, Yuzhang Shang, Dawei Yang

개요

본 논문은 기존의 대규모 언어 모델(LLM) 미세 조정 기법이 가진 높은 부동 소수점 연산 요구량, 개인정보보호 문제, 그리고 자원 제약적인 에지 디바이스에서의 비실용성 등의 문제점을 해결하기 위해, 부동 소수점 연산 없이 온디바이스 LLM 미세 조정이 가능한 새로운 프레임워크인 GSQ-Tuning을 제시한다. GSQ-Tuning은 파라미터 그룹 간 공유 지수를 사용하는 Group-Shared Exponents Integer 형식을 통해 모델 파라미터를 정수 형식으로 효율적으로 표현하고, LoRA와 유사한 어댑터와 결합하여 메모리 및 연산 효율적인 완전 정수 기반 미세 조정을 가능하게 한다.

시사점, 한계점

시사점:
부동 소수점 연산 없이 LLM 미세 조정이 가능하여 에지 디바이스에서의 대규모 모델 적용을 가능하게 한다.
BF16 기반 미세 조정과 비슷한 정확도를 달성하면서 메모리 사용량을 1.85배 감소시킨다.
FP8에 비해 5배의 전력 소비 감소 및 11배의 칩 면적 감소 효과를 동일한 성능으로 달성한다.
개인정보보호 문제를 완화할 수 있다.
한계점:
제시된 GSQ-Tuning의 일반적인 LLM 모델 및 다양한 작업에 대한 적용성 및 성능에 대한 추가적인 실험이 필요하다.
Group-Shared Exponents Integer 형식의 최적화 및 효율성에 대한 추가 연구가 필요할 수 있다.
특정 하드웨어 환경에 최적화되어 있을 가능성이 있으며, 다른 하드웨어 환경에서의 성능이 보장되지 않을 수 있다.
👍