Las alucinaciones en modelos lingüísticos a gran escala (LLM) son un aspecto crucial para garantizar la fiabilidad, y la detección de alucinaciones a nivel de token ha sido un foco de investigación reciente. Este artículo analiza la distribución de las señales de alucinación dentro de las secuencias de tokens de alucinación. Utilizando anotaciones a nivel de token del corpus RAGTruth, observamos que el primer token de alucinación se detecta considerablemente más fácilmente que los tokens subsiguientes. Esta característica estructural es consistente en todos los modelos, lo que sugiere que el primer token de alucinación desempeña un papel crucial en la detección de alucinaciones a nivel de token.