본 논문은 위장 객체 검출(COD)에서 표적과 배경의 색상, 질감, 형태의 구분 불가능한 유사성이라는 핵심 과제를 해결하기 위해 DRRNet을 제안합니다. DRRNet은 전역 의미 정보에 과도하게 의존하여 가장자리 세부 정보(예: 머리카락과 같은 미세 구조)를 잃거나, 지역적 특징에만 의존하여 유사한 배경(예: 식물 패턴)에 의해 방해받는 기존 방법들의 한계를 극복하기 위해 "맥락-세부 정보-융합-개선" 파이프라인을 특징으로 하는 4단계 아키텍처입니다. 전역 위장 패턴을 포착하는 전방위 맥락 특징 추출 모듈과 전체 장면 맥락 모듈을 위한 미세 구조 정보를 보충하는 지역 세부 정보 추출 모듈을 도입합니다. 다양한 스케일에서 전경 특징과 지역 특징을 융합하는 장면 이해와 구조 인식의 이중 표현을 형성하는 모듈을 설계했습니다. 디코더에서는 공간 가장자리 사전 정보와 주파수 영역 잡음 억제를 활용하여 출력을 2단계 역 개선하는 역 개선 모듈을 도입하여 배경 간섭을 효과적으로 억제하고 객체 경계의 연속성을 향상시킵니다. 벤치마크 데이터셋에서 최첨단 방법보다 성능이 훨씬 뛰어납니다. 코드는 https://github.com/jerrySunning/DRRNet 에서 이용 가능합니다.