본 논문은 텍스트-이미지(T2I) 모델의 안전성을 확보하기 위한 새로운 프레임워크를 제안한다. 기존의 추론 시간 안전성 방법론의 한계점(과도한 거부, 안전성과 유용성 간의 불균형)을 해결하기 위해, 모델에 독립적이고 플러그 앤 플레이 방식의 다중 라운드 안전 편집 프레임워크를 제안한다. 핵심 요소는 T2I 생성의 안전 편집을 위해 특별히 구축된 다중 라운드 이미지-텍스트 인터리브 데이터 세트인 MR-SafeEdit이다. 인간의 인지 과정을 모방하여, 생성된 유해 콘텐츠를 식별하고 개선하는 후속 안전 편집 패러다임을 도입하고, 이를 구현하기 위해 생성된 이미지에 대한 다중 라운드 안전 편집이 가능한 통합 MLLM인 SafeEditor를 개발했다. 실험 결과, SafeEditor는 기존 안전성 방법론을 능가하며 과도한 거부를 줄이는 동시에 안전성과 유용성 간의 더 나은 균형을 달성했다.