MedCondDiff는 효율적이고 해부학적으로 기반한 다중 장기 의료 영상 분할을 위한 확산 기반 프레임워크입니다. Pyramid Vision Transformer (PVT) 백본으로 추출한 의미적 사전 정보를 기반으로 디노이징 과정을 조건부로 하여 의미론적으로 유도된 경량 확산 아키텍처를 구현합니다. 이 설계는 기존 확산 모델에 비해 견고성을 향상시키면서 추론 시간과 VRAM 사용량을 모두 줄입니다. 다중 장기, 다중 모달리티 데이터 세트에 대한 실험을 통해 MedCondDiff가 해부학적 영역 및 영상 모달리티 전반에 걸쳐 경쟁력 있는 성능을 제공하며, 의료 영상 작업에 효과적인 아키텍처 클래스로서 의미론적으로 유도된 확산 모델의 잠재력을 보여줍니다.