본 논문은 대규모 언어 모델(LLM)의 악의적인 활용을 방지하기 위한 새로운 안전 보호 기법인 QGuard를 제안한다. QGuard는 질문 프롬프팅을 활용하여 제로샷 방식으로 악의적인 프롬프트를 차단하는 간단하면서도 효과적인 방법이다. 텍스트 기반뿐 아니라 다중 모달의 악의적인 프롬프트 공격에도 방어할 수 있으며, 질문을 다양화하고 수정함으로써 최신 악의적인 프롬프트에도 미세 조정 없이 강력하게 대응한다. 실험 결과, 텍스트 전용 및 다중 모달 악의적인 데이터셋 모두에서 경쟁력 있는 성능을 보여주었으며, 질문 프롬프팅 분석을 통해 사용자 입력의 화이트박스 분석을 가능하게 한다. 결론적으로, QGuard는 악의적인 프롬프트와 관련된 보안 위험을 완화하는 데 있어 실제 LLM 서비스에 귀중한 통찰력을 제공한다.