Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

How to Synthesize Text Data without Model Collapse?

Created by
  • Haebom

저자

Xuekai Zhu, Daixuan Cheng, Hengli Li, Kaiyan Zhang, Ermo Hua, Xingtai Lv, Ning Ding, Zhouhan Lin, Zilong Zheng, Bowen Zhou

개요

본 논문은 합성 데이터를 사용한 언어 모델 학습에서 발생하는 모델 붕괴 문제를 다룹니다. 합성 데이터 비율 증가에 따른 모델 성능 저하 현상을 실험적으로 확인하고, 이러한 현상이 데이터 분포 변화와 n-gram 특징의 과집중으로 인한 것임을 분석합니다. 이를 해결하기 위해 인간이 생성한 데이터에 토큰 편집을 적용하여 반합성 데이터를 생성하는 방법을 제안하고, 이론적 및 실험적으로 모델 붕괴를 방지하고 성능을 향상시킬 수 있음을 보여줍니다. 실험은 처음부터 학습하는 경우, 지속적인 학습, 그리고 지도 학습 미세 조정 등 다양한 상황에서 수행되었습니다.

시사점, 한계점

시사점:
합성 데이터의 비율과 언어 모델 성능 간의 음의 상관관계를 실험적으로 규명.
모델 붕괴의 원인으로 데이터 분포 변화 및 n-gram 특징 과집중을 제시.
토큰 편집을 통한 반합성 데이터 생성 방법 제안 및 성능 향상 효과 검증.
이론적 증명을 통해 토큰 수준 편집이 모델 붕괴 방지에 효과적임을 뒷받침.
한계점:
제안된 토큰 편집 방법의 일반성 및 다양한 언어 모델, 데이터셋에 대한 적용성 추가 연구 필요.
토큰 편집의 최적 전략 및 매개변수 설정에 대한 추가 연구 필요.
실험은 특정 데이터셋과 모델에 국한되어, 다른 상황에서의 일반화 가능성 검증 필요.
👍