Este artículo propone QGuard, una novedosa técnica de protección de seguridad para prevenir la explotación maliciosa de modelos de lenguaje a gran escala (LLM). QGuard es un método simple pero eficaz de cero disparos que aprovecha las preguntas para bloquearlas. Protege contra ataques de mensajes maliciosos, tanto textuales como multimodales, y al diversificar y modificar las preguntas, responde con robustez a los mensajes maliciosos modernos sin necesidad de ajustes. Los resultados experimentales demuestran un rendimiento competitivo en conjuntos de datos maliciosos, tanto textuales como multimodales, y el análisis de preguntas permite el análisis de caja blanca de la entrada del usuario. En conclusión, QGuard proporciona información valiosa para mitigar los riesgos de seguridad asociados con los mensajes maliciosos en servicios LLM del mundo real.