Enhancing Satellite Object Localization with Dilated Convolutions and Attention-aided Spatial Pooling
Created by
Haebom
저자
Seraj Al Mahmud Mostafa, Chenxi Wang, Jia Yue, Yuta Hozumi, Jianwu Wang
개요
본 논문은 위성 영상에서의 객체 위치 파악이 객체의 다양성, 낮은 공간 해상도, 구름이나 도시 불빛과 같은 잡음과 주요 특징의 간섭으로 인해 특히 어렵다는 점을 다룹니다. 본 연구는 상층 대기 중력파(GW), 중간권 보어(Bore), 해양 소용돌이(OE) 세 가지 위성 데이터 세트에 초점을 맞추어 각 데이터 세트의 고유한 과제를 해결합니다. 이러한 과제에는 관심 객체의 크기, 모양, 특징 범위가 크게 다를 수 있는 주요 객체 패턴의 규모 및 모양의 변동성이 포함됩니다. 이러한 문제를 해결하기 위해, 본 논문은 복잡한 시나리오에서 객체 위치 파악을 개선하도록 설계된 YOLOv5의 새로운 개선 버전인 YOLO-DCAP를 제시합니다. YOLO-DCAP는 다양한 팽창률로 다중 스케일 특징을 포착하는 다중 스케일 팽창 잔차 합성곱(MDRC) 블록과 전역적으로 관련된 공간 영역에 집중하여 특징 선택을 향상시키는 주의력 지원 공간 풀링(AaSP) 모듈을 통합합니다. 이러한 구조적 개선은 위성 영상에서 객체를 더 잘 찾는 데 도움이 됩니다. 실험 결과는 YOLO-DCAP가 YOLO 기본 모델과 최첨단 접근 방식을 모두 상당히 능가하여 기본 모델에 비해 mAP50에서 평균 20.95%, IoU에서 32.23% 향상되었고, 최첨단 대안에 비해 각각 7.35%와 9.84% 향상되었음을 보여줍니다. 세 가지 위성 데이터 세트에서 일관된 성능 향상은 제안된 접근 방식의 견고성과 일반화 가능성을 강조합니다. 코드는 https://github.com/AI-4-atmosphere-remote-sensing/satellite-object-localization 에서 공개되었습니다.