Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Building Domain-Specific Small Language Models via Guided Data Generation

Created by
  • Haebom
Category
Empty

저자

Aman Kumar, Ekant Muljibhai Amin, Xian Yeow Lee, Lasitha Vidyaratne, Ahmed K. Farahat, Dipanjan D. Ghosh, Yuta Koreeda, Chetan Gupta

개요

본 논문은 대규모 언어 모델(LLM)을 활용하여 특정 도메인 전문가를 지원하는 방안을 제시한다. SaaS 솔루션의 데이터 프라이버시 문제와 오픈 소스 모델의 높은 컴퓨팅 자원 요구 사항을 해결하기 위해, 저자들은 소규모 도메인 특화 LLM 개발에 초점을 맞춘다. 특히, 제한된 양의 고품질 도메인 특정 훈련 데이터 문제를 해결하기 위해, 가이드 기반의 합성 데이터 생성과 하향식 도메인 데이터 큐레이션을 결합한 비용 효율적이고 확장 가능한 훈련 파이프라인을 제안한다. 이 파이프라인은 Domain-Adaptive Pretraining (DAPT), Domain-specific Supervised Fine-tuning (DSFT), Direct Preference Optimization (DPO)를 통합하여 전문 사용 사례에 효과적인 소규모 모델을 훈련시킨다. 저자들은 30억 개의 파라미터를 가진 fault 진단, 근본 원인 분석, 수리 추천을 위한 DiagnosticSLM 모델을 개발하고, DiagnosticMCQ, DiagnosticQA, DiagnosticComp, DiagnosticSum의 네 가지 도메인 특정 벤치마크를 통해 모델 성능을 평가했다. 그 결과, DiagnosticSLM은 MCQ task에서 유사하거나 더 큰 크기의 오픈 소스 모델보다 최대 25%의 정확도 향상을 보였으며, 다른 task에서도 유사하거나 더 나은 성능을 보여 도메인 특정 추론 및 일반화 능력을 입증했다.

시사점, 한계점

시사점:
소규모 모델을 활용하여 특정 도메인 문제를 해결할 수 있는 비용 효율적인 방법론 제시.
합성 데이터 생성과 데이터 큐레이션을 결합한 새로운 훈련 파이프라인 제안.
산업 환경에서의 활용 가능성을 보여주는 DiagnosticSLM 모델 개발 및 성능 검증.
도메인 특화 모델 평가를 위한 벤치마크 (DiagnosticMCQ, DiagnosticQA, DiagnosticComp, DiagnosticSum) 제시.
한계점:
30억 파라미터 모델에 국한된 성능 평가 및 일반화 가능성.
다양한 도메인 및 task에 대한 일반화 여부 추가 검증 필요.
합성 데이터 생성 과정에서의 편향 가능성 및 해결 방안에 대한 추가 연구 필요.
다른 파이프라인과의 비교 분석 부족.
👍