본 논문은 위성 영상에서의 객체 위치 파악이 객체의 높은 변동성, 낮은 공간 해상도, 구름이나 도시 불빛과 같은 노이즈와 주요 특징의 간섭으로 인해 특히 어렵다는 점에 주목합니다. 상층 대기 중력파(GW), 중간권 보어(Bore), 해양 소용돌이(OE) 세 가지 위성 데이터셋을 사용하여 YOLOv5를 개선한 YOLO-DCAP 모델을 제시합니다. YOLO-DCAP은 다중 스케일 팽창 잔차 합성곱(MDRC) 블록과 주의력 기반 공간 풀링(AaSP) 모듈을 통합하여 다양한 크기의 특징을 포착하고 관련 공간 영역에 집중함으로써 위성 영상에서의 객체 위치 파악 성능을 향상시킵니다. 실험 결과, YOLO-DCAP은 기본 YOLO 모델과 최첨단 기법보다 mAP50에서 평균 20.95%, IoU에서 평균 32.23% 향상된 성능을 보였으며, 세 가지 데이터셋 모두에서 일관된 성능 향상을 보여주어 제안된 방법의 강건성과 일반화 가능성을 입증했습니다. 소스 코드는 공개되어 있습니다.