Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SGDFuse: SAM-Guided Diffusion for High-Fidelity Infrared and Visible Image Fusion

Created by
  • Haebom

저자

Xiaoyang Zhang, Zhen Hua, Yakun Ju, Wei Zhou, Jun Liu, Alex C. Kot

개요

본 논문은 적외선 및 가시광선 영상 융합(IVIF)에서 기존 방법들의 한계점인 심층적인 의미 이해 부족과 인공물 발생 및 세부 정보 손실 문제를 해결하기 위해, Segment Anything Model (SAM)을 이용한 조건부 확산 모델인 SGDFuse를 제안합니다. SGDFuse는 SAM이 생성한 고품질의 의미론적 마스크를 명시적인 사전 정보로 활용하여 조건부 확산 모델을 통해 융합 과정을 최적화합니다. 두 단계 과정으로, 먼저 다중 모드 특징의 예비 융합을 수행한 후, SAM의 의미론적 마스크와 예비 융합 이미지를 조건으로 하여 확산 모델의 조잡함에서 세밀함으로 이어지는 탈잡음 생성을 수행합니다. 이를 통해 의미론적 방향성을 확보하고 최종 결과의 고충실도를 보장합니다. 실험 결과, SGDFuse는 주관적 및 객관적 평가와 다운스트림 작업 적용성 측면에서 최첨단 성능을 달성함을 보여줍니다. 소스 코드는 GitHub에서 공개됩니다.

시사점, 한계점

시사점:
SAM을 활용하여 의미론적으로 풍부하고 고품질의 적외선 및 가시광선 영상 융합 결과를 얻을 수 있음을 보여줌.
기존 방법들의 한계점인 인공물 발생 및 세부 정보 손실 문제를 효과적으로 해결.
다운스트림 작업에 대한 적용성이 뛰어나 실제 응용 가능성이 높음.
최첨단 성능 달성.
공개된 소스 코드를 통해 재현성 및 확장성 확보.
한계점:
SAM의 성능에 의존적일 수 있음. SAM의 성능 저하가 SGDFuse의 성능에 영향을 미칠 가능성 존재.
계산 비용이 높을 수 있음. 확산 모델 기반이므로 처리 시간이 길어질 가능성 존재.
SAM이 특정 유형의 이미지에 대해서는 성능이 떨어질 수 있으므로, 이러한 이미지에 대한 융합 성능 저하 가능성 존재.
👍