大規模言語モデル(LLM)の発展はさまざまな分野に影響を与えましたが、悪意のあるユーザーが有害であるか、脱獄プロンプトを悪用する可能性も増加しました。本論文は、有害なプロンプトをブロックするために質問プロンプトを利用する簡単で効果的な安全保護方法であるQGuardを提案する。 QGuardはテキストベースとマルチモーダルの有害なプロンプト攻撃の両方に対して防御することができ、ファインチューニングなしで最新の有害なプロンプトに耐えます。実験結果は、QGuardがテキストベースおよびマルチモーダル有害データセットで競争力のあるパフォーマンスを示していることを示しています。また、質問のプロンプト分析により、ユーザー入力のホワイトボックス分析を可能にします。