확산 모델의 발전으로 텍스트 기반 이미지 편집이 개선되었지만, 독립적인 이미지 편집은 3D 표현(NeRF, Gaussian Splat 등)에서 기하학적, 광학적 불일치를 발생시킨다. 본 논문은 이미지 편집 과정에서 다중 뷰 일관성을 강제하는 훈련이 필요 없는 확산 프레임워크를 제안한다. 이는 편집 전 이미지의 대응점이 편집 후 유사한 변환을 겪어야 한다는 가정에 기반하며, 일관성 손실을 통해 일관된 편집을 유도한다. 이 프레임워크는 유연하며 다양한 이미지 편집 방법과 결합 가능하고, 실험 결과는 3D 일관성을 크게 향상시킴을 보여준다.