Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AdaptCLIP: Adapting CLIP for Universal Visual Anomaly Detection

Created by
  • Haebom

저자

Bin-Bin Gao, Yue Zhu, Jiangtao Yan, Yuezhi Cai, Weixi Zhang, Meng Wang, Jun Liu, Yong Liu, Lei Wang, Chengjie Wang

개요

본 논문은 새로운 또는 보이지 않는 비전 영역에서 추가적인 미세 조정 없이 이상 현상을 식별하는 범용 시각적 이상 탐지를 다룹니다. 기존 연구에서는 CLIP과 같은 사전 훈련된 비전-언어 모델이 0-shot 또는 few-shot 학습으로 강력한 일반화 성능을 보임을 보였지만, 프롬프트 템플릿 설계, 복잡한 토큰 상호 작용 또는 추가 미세 조정의 필요성으로 인해 유연성이 제한적이었습니다. 본 논문에서는 AdaptCLIP이라는 간단하면서도 효과적인 방법을 제시합니다. AdaptCLIP은 첫째, 적응적 시각 및 텍스트 표현을 공동으로 학습하는 대신 번갈아 학습해야 하며, 둘째, 쿼리와 정상 이미지 프롬프트 간의 비교 학습은 잔차 특징에만 의존하는 것이 아니라 문맥적 및 정렬된 잔차 특징을 모두 통합해야 한다는 두 가지 주요 통찰력에 기반합니다. CLIP 모델을 기본 서비스로 취급하고, 시각 어댑터, 텍스트 어댑터 및 프롬프트-쿼리 어댑터라는 세 가지 간단한 어댑터만 입력 또는 출력 끝에 추가합니다. 기본 데이터셋에서 훈련된 후에는 대상 도메인에서 훈련이 필요 없으며, 도메인 간 0-shot/few-shot 일반화를 지원합니다. 산업 및 의료 도메인의 12개 이상 탐지 벤치마크에서 최첨단 성능을 달성하여 기존 경쟁 방법을 크게 능가합니다. 코드와 모델은 https://github.com/gaobb/AdaptCLIP 에서 공개될 예정입니다.

시사점, 한계점

시사점:
CLIP 기반의 간단하고 효과적인 범용 시각적 이상 탐지 방법 제시.
적응적 시각 및 텍스트 표현의 번갈아 가는 학습 및 문맥적 및 정렬된 잔차 특징의 통합을 통한 성능 향상.
0-shot/few-shot 학습 및 도메인 간 일반화 지원.
다양한 산업 및 의료 도메인에서 최첨단 성능 달성.
오픈소스 코드 및 모델 제공.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 실험 및 분석 필요.
다양한 유형의 이상 현상에 대한 로버스트성 평가 필요.
특정 도메인에 대한 과적합 가능성 및 해결 방안 연구 필요.
👍