Este artículo propone Self Logits Evolution Decoding (SLED), un novedoso marco de decodificación para mejorar la fiabilidad de salida y la precisión factual de los modelos de lenguaje a gran escala (LLM). SLED aprovecha el conocimiento latente dentro del LLM para mejorar la precisión factual de la salida, sin requerir una base de conocimiento externa ni ajustes adicionales. Compara los logits de salida de las capas final e inicial y utiliza un enfoque de gradiente aproximado para permitir que el conocimiento latente mejore automáticamente la salida. Experimentos exhaustivos en varias familias y tamaños de modelos (1B a 45B), incluyendo Gemma, Qwen, Mixtral y gpt-oss, así como configuraciones de arquitectura avanzadas como MoE, demuestran que SLED mejora consistentemente la precisión factual en comparación con los métodos de decodificación existentes, a la vez que mantiene la fluidez del lenguaje natural y genera una sobrecarga de latencia insignificante. Además, puede combinarse de forma flexible con otros métodos de decodificación para mejorar aún más el rendimiento.