Este artículo aborda el problema de la alucinación en modelos lingüísticos a gran escala (LLM). La alucinación se refiere al fenómeno en el que un LLM genera respuestas seguras, pero en realidad produce respuestas incorrectas o sin sentido. Este artículo formula la detección de alucinaciones como un problema de prueba de hipótesis y demuestra su similitud con el problema de detección de desdistribución en modelos de aprendizaje automático. Proponemos un método novedoso inspirado en pruebas múltiples y presentamos amplios resultados experimentales para verificar su robustez frente a los métodos más avanzados.