Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ForAug: Recombining Foregrounds and Backgrounds to Improve Vision Transformer Training with Bias Mitigation

Created by
  • Haebom
Category
Empty

저자

Tobias Christian Nauen, Brian Moser, Federico Raue, Stanislav Frolov, Andreas Dengel

개요

Vision Transformers (ViTs)는 대규모 이미지 분류에서 우수한 성능을 보이지만, 많은 양의 데이터가 필요하고 중심 또는 크기 편향과 같은 편향성을 가질 수 있다. 본 논문은 이러한 문제를 해결하기 위해 사전 훈련된 파운데이션 모델을 사용하여 전경 객체를 서로 다른 배경과 분리하고 재조합하는 새로운 데이터 증강 연산인 ForAug를 제안한다. ForAug는 객체 위치, 크기, 배경 선택을 정밀하게 제어할 수 있게 해준다. ForAug를 사용하면 ImageNet에서 ViTs 및 기타 아키텍처의 정확도를 최대 4.5% 향상시키고, 다운스트림 작업에서 7.3% 향상시킬 수 있다. 또한 ForAug는 모델 동작 분석과 편향 정량화를 위한 새로운 방법을 제시하며, 배경 강건성, 전경 초점, 중심 편향 및 크기 편향에 대한 메트릭을 도입하여 ForAug가 이러한 편향을 줄이는 것을 보여준다.

시사점, 한계점

시사점:
ViTs 및 기타 아키텍처의 정확도를 향상시킴 (ImageNet에서 최대 4.5%, 다운스트림 작업에서 7.3% 향상).
모델 편향(배경 강건성, 전경 초점, 중심 편향, 크기 편향)을 줄임.
모델 동작 분석 및 편향 정량화를 위한 새로운 메트릭 제공.
보다 강건하고 신뢰할 수 있는 컴퓨터 비전 모델 개발에 기여.
공개된 코드 및 데이터셋 제공.
한계점:
논문에서 구체적인 한계점 언급 없음.
👍