Cet article propose le décodage d'évolution des logits (SLED), un nouveau cadre de décodage permettant d'améliorer la fiabilité et la précision factuelle des résultats des modèles de langage à grande échelle (LLM). SLED exploite les connaissances latentes du LLM pour améliorer la précision factuelle des résultats, sans nécessiter de base de connaissances externe ni de réglages supplémentaires. Il compare les logits de sortie des couches finale et initiale et utilise une approche par gradient approximatif pour permettre aux connaissances latentes d'auto-améliorer les résultats. Des expériences approfondies sur différentes familles et tailles de modèles (1 B à 45 B), notamment Gemma, Qwen, Mixtral et gpt-oss, ainsi que sur des configurations d'architecture avancées telles que MoE, démontrent que SLED améliore systématiquement la précision factuelle par rapport aux méthodes de décodage existantes, tout en maintenant la fluidité du langage naturel et en induisant une latence négligeable. De plus, il peut être combiné de manière flexible avec d'autres méthodes de décodage pour améliorer encore les performances.