Este artículo propone un enfoque novedoso, la Autorreflexión Guiada por la Atención (AGSER), para abordar el problema de las alucinaciones, que dificulta la aplicación efectiva de los modelos de lenguaje a gran escala (LLM). AGSER aprovecha las contribuciones de la atención para clasificar las preguntas de entrada en preguntas centradas en la atención y preguntas no centradas en la atención. Para cada pregunta, procesa por separado el LLM para calcular una puntuación de consistencia entre la respuesta generada y la respuesta original. La diferencia entre las dos puntuaciones de consistencia se utiliza como una medida de alucinaciones. AGSER no solo mejora la eficiencia de la detección de alucinaciones, sino que también reduce significativamente la sobrecarga computacional al utilizar solo tres pasadas sobre el LLM y dos conjuntos de tokens. Experimentos extensos con cuatro LLM ampliamente utilizados y tres puntos de referencia de alucinaciones demuestran que el método propuesto supera significativamente los métodos existentes en la detección de alucinaciones.