본 논문은 사전 훈련된 대규모 잠재 확산 모델을 고해상도 합성 개구 레이더(SAR) 이미지 생성에 적용하는 프레임워크를 제시합니다. 이 접근 방식을 통해 제어 가능한 합성과 훈련 세트를 넘어 희귀하거나 분포 외의 장면 생성이 가능합니다. 작은 작업별 모델을 처음부터 훈련하는 대신, 오픈 소스 텍스트-이미지 기반 모델을 SAR 모달리티에 적용하여 의미적 사전 정보를 사용하여 프롬프트를 SAR 이미징 물리(측면 시야 기하학, 경사 거리 투영, 무거운 꼬리 통계를 가진 코히어런트 스페클)에 맞춥니다. 10만 개의 이미지 SAR 데이터 세트를 사용하여 UNet 확산 백본, 변분 오토인코더(VAE) 및 텍스트 인코더에서 전체 미세 조정 및 매개변수 효율적인 저순위 적응(LoRA)을 비교합니다. 평가는 (i) 실제 SAR 진폭 분포에 대한 통계적 거리, (ii) 회색 레벨 공동 발생 행렬(GLCM) 기술자를 통한 질감 유사성, (iii) SAR 전문 CLIP 모델을 사용한 의미적 정렬을 결합합니다. 결과는 텍스트 인코더에 LoRA를 사용한 하이브리드 전략-전체 UNet 조정 및 학습된 토큰 임베딩이 프롬프트 충실도를 유지하면서 SAR 기하학과 질감을 가장 잘 보존함을 보여줍니다. 이 프레임워크는 텍스트 기반 제어 및 다중 모달 조건화(예: 분할 맵, TerraSAR-X 또는 광학 안내)를 지원하여 지구 관측에서 대규모 SAR 장면 데이터 증강 및 보이지 않는 시나리오 시뮬레이션을 위한 새로운 경로를 엽니다.