Este artículo propone RePPL, un método novedoso para resolver el problema de las alucinaciones en modelos lingüísticos a gran escala (LLM). Los métodos existentes de detección de alucinaciones se centran en la medición de la incertidumbre, pero no logran explicar la causa de las alucinaciones. Para superar esta limitación, calculamos una puntuación de incertidumbre a nivel de token considerando tanto la incertidumbre generada durante la propagación semántica como la generación del lenguaje. Estas puntuaciones se agregan posteriormente como una media logarítmica de perplejidad para obtener una puntuación general de alucinaciones. Nuestro método demuestra un excelente rendimiento, alcanzando un AUC promedio de 0,833 en diversos conjuntos de datos de control de calidad y modelos de vanguardia, lo que demuestra la utilidad de las puntuaciones de incertidumbre a nivel de token para explicar la causa de las alucinaciones.