Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Unicorn: Text-Only Data Synthesis for Vision Language Model Training

Created by
  • Haebom

저자

Xiaomin Yu, Pengxiang Ding, Wenjie Zhang, Siteng Huang, Songyang Gao, Chengwei Qin, Kejian Wu, Zhaoxin Fan, Ziyue Qiao, Donglin Wang

개요

본 논문은 비전-언어 모델(VLMs) 학습에 필요한 대규모 고품질 이미지-텍스트 쌍 데이터 확보의 어려움을 해결하기 위해, 텍스트 데이터만을 이용한 합성 데이터 생성 프레임워크를 제안합니다. 대규모 언어 모델(LLMs)을 활용하여 120만 개의 다양한 고품질 캡션을 생성하고(1단계), 47만1천 개의 캡션을 다회차 지시-튜닝 작업으로 가공하여 복잡한 추론을 지원합니다(2단계). 마지막으로 텍스트 캡션 표현을 시각적 표현으로 변환하여 합성 이미지 표현을 생성합니다(3단계). 이를 통해 실제 이미지 없이 사전 학습용 Unicorn-1.2M 및 지시-튜닝용 Unicorn-471K-Instruction 두 개의 데이터셋을 생성하며, 비용 효율적이고 확장 가능한 VLM 학습 솔루션을 제공합니다.

시사점, 한계점

시사점:
실제 이미지 없이도 고품질의 다양한 VLM 학습 데이터를 생성하는 효율적인 방법 제시
텍스트 데이터의 풍부함을 활용하여 VLM 학습의 비용 및 시간적 제약 극복 가능성 제시
사전 학습 및 지시-튜닝에 모두 활용 가능한 두 가지 데이터셋 제공
VLM 학습의 확장성 및 접근성 향상에 기여
한계점:
합성 데이터의 질적 한계: 실제 이미지와 비교했을 때 시각적 정보의 정확성 및 다양성에 대한 검증 필요
LLM의 성능 의존성: LLM의 성능에 따라 합성 데이터의 품질이 영향을 받을 수 있음
합성 이미지의 현실성 부족: 실제 이미지와의 차이로 인해 모델 성능에 제한이 있을 수 있음
지시-튜닝 데이터의 복잡성 수준: 다양한 유형의 복잡한 추론 과제에 대한 충분한 지원 여부에 대한 검증 필요
👍