Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Impact of Noisy Supervision in Foundation Model Learning

Created by
  • Haebom
Category
Empty

저자

Hao Chen, Zihan Wang, Ran Tao, Hongxin Wei, Xing Xie, Masashi Sugiyama, Bhiksha Raj, Jindong Wang

개요

본 논문은 대규모 사전 학습 데이터셋의 노이즈가 기초 모델의 일반화 성능에 미치는 영향을 최초로 종합적으로 분석하고, 이를 완화하는 방법을 제시한 연구입니다. 합성 노이즈를 첨가한 ImageNet-1K, YFCC15M, CC12M 데이터셋을 사용한 광범위한 실험을 통해, 사전 학습 과정의 약간의 노이즈는 동일 분포(in-domain) 테스트 데이터에서는 성능 향상에 기여할 수 있지만, 상이한 분포(out-of-domain) 테스트 데이터에서는 항상 성능 저하를 야기함을 보였습니다. 이러한 현상은 사전 학습 데이터셋의 크기, 노이즈 유형, 모델 구조, 사전 학습 목표, downstream tuning 방법, downstream 애플리케이션 등에 관계없이 일관되게 나타났습니다. 본 논문에서는 노이즈가 특징 공간을 변형시키는 것이 성능 저하의 원인임을 실험적으로 밝히고, 특징 공간을 변환하여 노이즈의 악영향을 완화하고 일반화 성능을 향상시키는 새로운 tuning 방법인 NMTune을 제안합니다. NMTune은 parameter-efficient 및 black-box tuning 방식 모두에 적용 가능하며, 실제 노이즈가 포함된 데이터로 사전 학습된 다양한 비전 및 언어 모델(API 포함)에 대한 실험을 통해 효과를 검증했습니다. 본 연구는 'Noisy Model Learning'이라는 새로운 연구 방향의 중요성을 강조합니다.

시사점, 한계점

시사점:
대규모 사전 학습 데이터셋의 노이즈가 모델 일반화 성능에 미치는 영향에 대한 종합적인 이해를 제공합니다.
사전 학습 노이즈가 in-domain 및 out-of-domain 성능에 미치는 상반된 영향을 규명합니다.
노이즈의 악영향을 완화하는 새로운 tuning 방법인 NMTune을 제시합니다.
'Noisy Model Learning'이라는 새로운 연구 분야의 중요성을 제시합니다.
한계점:
합성 노이즈 데이터를 사용하여 실험을 진행했으므로, 실제 데이터셋의 노이즈에 대한 일반화 가능성은 추가 연구가 필요합니다.
NMTune의 성능 향상 정도는 데이터셋과 모델에 따라 다를 수 있습니다.
NMTune의 계산 비용 및 적용 가능성에 대한 추가적인 분석이 필요할 수 있습니다.
👍