Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Improved Supervised Fine-Tuning for Large Language Models to Mitigate Catastrophic Forgetting

Created by
  • Haebom

저자

Fei Ding, Baiqiao Wang

개요

본 논문은 오픈소스 대규모 언어 모델(LLM)의 지시사항 따르기 능력 향상을 위한 지도 미세 조정(SFT) 방법에서 발생하는 catastrophic forgetting 문제를 해결하는 새로운 방법을 제시합니다. 기존 SFT 데이터 접근 없이, 기본 모델의 지시 분포를 재구성하고 다중 모델 생성 및 필터링 파이프라인을 통해 고품질의 범용 데이터셋을 합성합니다. 이 합성 데이터셋을 새로운 도메인 특화 데이터와 혼합하여 미세 조정함으로써, 일반 도메인에서의 성능 저하 없이 특정 작업 성능을 향상시키는 것을 실험적으로 확인했습니다.

시사점, 한계점

시사점:
기존 SFT 데이터 접근 없이 catastrophic forgetting 문제를 효과적으로 완화하는 새로운 SFT 방법 제시.
합성 데이터셋을 활용하여 비용 효율적으로 LLM의 성능을 향상시킬 수 있음을 보여줌.
일반 도메인 성능 유지 및 특정 작업 성능 향상을 동시에 달성.
오픈소스 LLM의 실용성을 높일 수 있는 가능성 제시.
한계점:
합성 데이터셋의 품질이 실제 데이터셋에 비해 낮을 수 있음.
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요.
특정 도메인 및 모델에 대한 의존성 존재 가능성.
합성 데이터 생성 과정의 복잡성 및 계산 비용.
👍