ixi-GEN: Efficient Industrial sLLMs through Domain Adaptive Continual Pretraining
Created by
Haebom
저자
Seonwu Kim, Yohan Na, Kihun Kim, Hanhee Cho, Geun Lim, Mintae Kim, Seongik Park, Ki Hyun Kim, Youngsub Han, Byoung-Ki Jeon
개요
본 논문은 오픈소스 대규모 언어 모델(LLM)의 등장에도 불구하고, 많은 기업들이 대규모 모델 배포 및 유지보수에 필요한 인프라를 갖추지 못하고 소규모 LLM(sLLM)을 사용하는 현실적 문제를 다룬다. 기존 도메인 적응 지속적 사전 훈련(DACP) 기법의 활용 가능성을 상업적 응용 분야에서 검증하기 위해, 다양한 기반 모델과 서비스 도메인에 DACP 기반 방법을 적용하는 실험을 수행했다. 실험 결과, DACP를 적용한 sLLM이 목표 도메인 성능을 크게 향상시키면서 일반적인 기능도 유지하여, 기업 수준 배포를 위한 비용 효율적이고 확장 가능한 솔루션을 제공함을 보여준다.