A Survey of State of the Art Large Vision Language Models: Alignment, Benchmark, Evaluations and Challenges
Created by
Haebom
Category
Empty
저자
Zongxia Li, Xiyang Wu, Hongyang Du, Huy Nghiem, Guangyao Shi
개요
본 논문은 컴퓨터 비전과 자연어 처리의 교차점에 있는 혁신적인 기술인 다중 모달 비전 언어 모델(VLMs)에 대한 체계적인 개관을 제공합니다. CLIP, Claude, GPT-4V와 같은 모델들이 시각 및 텍스트 데이터에 대한 강력한 추론 및 이해 능력을 보여주고 제로샷 분류에서 기존의 단일 모달 비전 모델들을 능가함에도 불구하고, VLMs에 대한 기존 연구의 종합적인 조사가 부족합니다. 본 논문은 지난 5년(2019-2024) 동안 개발된 주요 VLMs의 모델 정보, 주요 아키텍처 및 훈련 방법, 인기 있는 벤치마크 및 평가 지표의 요약 및 분류, 구현 에이전트, 로보틱스 및 비디오 생성을 포함한 VLMs의 응용 분야, 환각, 공정성 및 안전성과 같은 현재 VLMs가 직면한 과제 및 문제점 등을 다룹니다. 자세한 논문 및 모델 저장소 링크는 https://github.com/zli12321/Vision-Language-Models-Overview 에서 확인할 수 있습니다.