Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DRRNet: Macro-Micro Feature Fusion and Dual Reverse Refinement for Camouflaged Object Detection

Created by
  • Haebom

저자

Jianlin Sun, Xiaolin Fang, Juwei Guan, Dongdong Gui, Teqi Wang, Tongxin Zhu

개요

본 논문은 위장 객체 검출(COD)에서 표적과 배경의 색상, 질감, 형태의 구분 불가능한 유사성이라는 핵심 과제를 해결하기 위해 DRRNet을 제안합니다. DRRNet은 전역 의미 정보에 과도하게 의존하여 가장자리 세부 정보(예: 머리카락과 같은 미세 구조)를 잃거나, 지역적 특징에만 의존하여 유사한 배경(예: 식물 패턴)에 의해 방해받는 기존 방법들의 한계를 극복하기 위해 "맥락-세부 정보-융합-개선" 파이프라인을 특징으로 하는 4단계 아키텍처입니다. 전역 위장 패턴을 포착하는 전방위 맥락 특징 추출 모듈과 전체 장면 맥락 모듈을 위한 미세 구조 정보를 보충하는 지역 세부 정보 추출 모듈을 도입합니다. 다양한 스케일에서 전경 특징과 지역 특징을 융합하는 장면 이해와 구조 인식의 이중 표현을 형성하는 모듈을 설계했습니다. 디코더에서는 공간 가장자리 사전 정보와 주파수 영역 잡음 억제를 활용하여 출력을 2단계 역 개선하는 역 개선 모듈을 도입하여 배경 간섭을 효과적으로 억제하고 객체 경계의 연속성을 향상시킵니다. 벤치마크 데이터셋에서 최첨단 방법보다 성능이 훨씬 뛰어납니다. 코드는 https://github.com/jerrySunning/DRRNet 에서 이용 가능합니다.

시사점, 한계점

시사점:
전역 및 지역 특징을 효과적으로 결합하여 위장 객체 검출 성능을 향상시킨 새로운 아키텍처(DRRNet) 제안.
역 개선 모듈을 통해 배경 간섭을 효과적으로 억제하고 객체 경계의 연속성을 향상.
벤치마크 데이터셋에서 SOTA 성능 달성.
공개된 코드를 통해 재현성 및 추가 연구 가능성 제공.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 평가 필요.
다양한 위장 유형 및 배경에 대한 강건성 평가 필요.
계산 비용 및 메모리 사용량에 대한 분석 필요.
👍