COSMOS: Cross-Modality Self-Distillation for Vision Language Pre-training
Created by
Haebom
저자
Sanghwan Kim, Rui Xiao, Mariana-Iuliana Georgescu, Stephan Alaniz, Zeynep Akata
개요
대조 손실을 사용하여 학습된 비전-언어 모델(VLMs)은 다양한 비전 및 언어 작업에서 상당한 발전을 이루었지만, 대조 손실의 전역적 특성으로 인해 VLMs는 주로 전경 객체에 집중하고 이미지의 다른 중요한 정보를 무시하여 후속 작업의 효율성을 제한합니다. 이러한 문제를 해결하기 위해 본 논문에서는 새로운 텍스트 자르기 전략과 교차 어텐션 모듈을 자기 지도 학습 프레임워크에 통합하는 COSMOS(CrOSs-MOdality Self-distillation)를 제안합니다. 이미지와 텍스트의 전역 및 지역적 뷰(즉, 다중 모드 증강)를 생성하여 VLMs에서 자기 증류에 필수적입니다. 또한 교차 어텐션 모듈을 도입하여 교차 모드 자기 증류 손실을 통해 최적화된 포괄적인 교차 모드 표현을 학습합니다. COSMOS는 검색, 분류 및 의미 분할을 포함한 다양한 제로샷 후속 작업에서 이전의 강력한 기준 모델을 능가하며, 더 큰 데이터셋으로 학습된 CLIP 기반 모델보다 시각적 인식 및 문맥 이해 작업에서 우수한 성능을 보입니다. 코드는 https://github.com/ExplainableML/cosmos 에서 이용 가능합니다.