Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Towards Automatic Continual Learning: A Self-Adaptive Framework for Continual Instruction Tuning

Created by
  • Haebom
Category
Empty

저자

Peiyi Lin, Fukai Zhang, Kai Niu, Hao Fu

개요

본 논문은 지속적인 지시 조정(Continual Instruction Tuning)을 통해 대규모 언어 모델(LLM)이 과거 지식을 유지하면서 점진적으로 학습할 수 있도록 하는 새로운 프레임워크를 제안합니다. 기존 방법들이 주로 과거 지식을 유지하는 방법에 초점을 맞춘 것과 달리, 본 논문은 어떤 새로운 지식을 학습할지를 선택하는 문제에 중점을 둡니다. 특히 도메인 특정 맥락에서 데이터 품질 유지 및 시스템 제약 관리의 어려움을 해결하기 위해, 중복 데이터를 식별하고 줄이는 자동화된 지속적 지시 조정 프레임워크를 제시합니다. 이는 효율적인 퍼플렉서티 기반 필터링을 위한 작은 프록시 모델을 활용하며, 필터링 기준이 배포된 모델의 진화하는 상태와 일치하도록 프록시를 업데이트합니다. 실제 의료 시나리오에서 평가한 결과, 계산 비용을 66.7% 절감하고 모델 성능을 향상시키며 자율적인 업데이트를 달성하여 효과를 입증했습니다.

시사점, 한계점

시사점:
지속적인 지시 조정을 위한 효율적인 자동화 프레임워크 제시
중복 데이터 필터링을 통한 계산 비용 절감 및 모델 성능 향상
프록시 모델 활용을 통한 효율적인 데이터 선택
실제 의료 시나리오에서의 효과 검증 및 자율 업데이트 가능성 입증
원활한 모델 업데이트, 버전 롤백, 자동 체크포인트 평가 지원
한계점:
프록시 모델의 성능이 전체 모델의 성능을 정확하게 반영하지 못할 가능성 존재
특정 도메인(의료)에 대한 평가 결과이므로 일반화 가능성에 대한 추가 연구 필요
퍼플렉서티 기반 필터링의 한계 및 다른 데이터 선택 기준 고려 필요
대규모 데이터셋에 대한 적용 가능성 및 확장성에 대한 추가 검증 필요
👍