본 논문은 최근 텍스트-이미지 생성 모델(T2I)의 성능 향상에도 불구하고, 성적으로 암시적인 이미지, 폭력적인 이미지, 정치적으로 민감한 이미지, 불쾌한 이미지 등의 NSFW 콘텐츠 생성에 대한 우려를 제기하며, 이를 해결하기 위한 새로운 콘텐츠 조절 기법인 PromptGuard를 제시합니다. PromptGuard는 대규모 언어 모델(LLM)의 시스템 프롬프트 메커니즘에서 영감을 얻어, T2I 모델의 텍스트 임베딩 공간 내에 암시적인 시스템 프롬프트 역할을 하는 안전 소프트 프롬프트(P*)를 최적화합니다. 이를 통해 추론 효율성을 저하시키거나 프록시 모델을 필요로 하지 않으면서도 안전하고 사실적인 이미지 생성을 가능하게 합니다. 또한, 카테고리별 소프트 프롬프트를 최적화하고 이를 통합하여 안전 지침을 제공하는 분할 정복 전략을 통해 신뢰성과 유용성을 향상시킵니다. 다섯 개의 데이터셋에 대한 광범위한 실험을 통해 PromptGuard가 고품질의 양성 출력을 유지하면서 NSFW 콘텐츠 생성을 효과적으로 완화함을 보여줍니다. 기존 방법보다 3.8배 빠른 속도를 달성하며, 최적의 안전하지 않은 비율을 5.84%까지 낮추어 8개의 최첨단 방어 기법을 능가합니다.