Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FlexOlmo: Open Language Models for Flexible Data Use

Created by
  • Haebom

저자

Weijia Shi, Akshita Bhagia, Kevin Farhat, Niklas Muennighoff, Pete Walsh, Jacob Morrison, Dustin Schwenk, Shayne Longpre, Jake Poznanski, Allyson Ettinger, Daogao Liu, Margaret Li, Dirk Groeneveld, Mike Lewis, Wen-tau Yih, Luca Soldaini, Kyle Lo, Noah A. Smith, Luke Zettlemoyer, Pang Wei Koh, Hannaneh Hajishirzi, Ali Farhadi, Sewon Min

개요

FlexOlmo는 분산 학습과 데이터 유연 추론을 지원하는 새로운 종류의 언어 모델입니다. 서로 다른 모델 파라미터들이 개별적으로 폐쇄된 데이터셋에서 학습되며(데이터 공유 없이), 추론 시에는 이러한 파라미터와 관련 데이터를 추가적인 학습 없이 유연하게 포함하거나 제외할 수 있습니다. 각 전문가(expert)는 독립적으로 폐쇄된 데이터셋에서 학습되고, 새로운 도메인 정보 라우팅을 통해 통합됩니다(결합 학습 없음). 공개 데이터셋과 7개의 도메인별 데이터셋으로 구성된 FlexMix 코퍼스를 사용하여 학습되었으며, 최대 370억 개의 파라미터(200억 개 활성)를 가진 모델을 31개의 다양한 하위 작업에서 평가했습니다. 공개 데이터로 학습된 일반 전문가를 다른 데이터 소유자의 독립적으로 학습된 전문가와 효과적으로 결합하여 평균 41%의 상대적 성능 향상을 달성했으며, 데이터 라이선스 또는 허가 요구사항에 따라 특정 데이터를 선택적으로 제외할 수 있습니다. 기존 모델 병합 방법보다 평균 10.1%의 성능 향상을 보였으며, 동일한 학습 FLOPs을 사용하는 표준 MoE보다도 성능이 우수했습니다. 민감하거나 보호된 데이터를 가진 규제 산업의 데이터 소유자와 연구자 모두에게 해결책을 제공합니다. 데이터를 로컬로 유지하고 추론 중 데이터 접근에 대한 세분화된 제어를 지원하여 폐쇄된 데이터의 이점을 누리면서 데이터 소유자의 기본 설정을 존중합니다.

시사점, 한계점

시사점:
분산 학습을 통해 데이터 공유 없이 여러 데이터 소유자의 데이터를 활용한 언어 모델 학습 가능
추론 시 데이터 유연성 제공: 데이터 라이선스 또는 허가 요구사항에 따라 데이터 선택적 포함/제외 가능
기존 모델 병합 방법 및 데이터 제약 없이 학습된 표준 MoE보다 우수한 성능
규제 산업에서 민감한 데이터의 활용 및 데이터 프라이버시 보호에 대한 실질적인 해결책 제시
한계점:
FlexMix 코퍼스의 구성 및 폐쇄 데이터셋의 대표성에 대한 추가적인 검증 필요
다양한 데이터셋 통합 시 발생할 수 있는 편향 및 데이터 간의 상호작용에 대한 추가 연구 필요
실제 산업 환경 적용 시 발생할 수 있는 문제점 및 확장성에 대한 추가적인 실험 및 분석 필요
👍