본 논문은 다중 소스 이미지로부터 상보적인 정보를 통합하여 더욱 유익한 결과를 생성하는 이미지 융합에 대해 다룬다. 최근 이미지 생성 잠재력이 뛰어난 확산 모델이 이미지 융합에 적용되고 있지만, 기존 방법들은 미리 정의된 다중 모드 가이드를 사용하여 각 모드의 역동적으로 변하는 중요성을 포착하지 못하고 이론적 보장이 부족하다는 한계점을 가지고 있다. 본 논문은 이미지 톺아보기 과정에서 공간-시간적 불균형이 존재함을 밝히고, 이를 바탕으로 확산 기반의 동적 이미지 융합 프레임워크를 제시한다. 이 프레임워크는 일반화 오류의 상한선을 감소시킨다는 이론적 보장을 제공하며, 확산 정보 이득(DIG)을 도입하여 각 모드의 정보 기여도를 정량화함으로써 융합 과정에 동적인 가이드를 제공한다. 다양한 융합 시나리오에 대한 실험을 통해 기존 확산 기반 방법보다 융합 품질과 추론 효율 모두에서 우수한 성능을 보임을 확인하였다.