Bài báo này đề xuất Giải mã Tiến hóa Tự Logits (SLED), một khuôn khổ giải mã mới nhằm cải thiện độ tin cậy và độ chính xác thực tế của đầu ra của các mô hình ngôn ngữ quy mô lớn (LLM). SLED tận dụng kiến thức tiềm ẩn trong LLM để cải thiện độ chính xác thực tế của đầu ra mà không cần cơ sở kiến thức bên ngoài hoặc tinh chỉnh bổ sung. Nó so sánh các logit đầu ra của các lớp cuối cùng và lớp ban đầu và sử dụng phương pháp tiếp cận gradient gần đúng để cho phép kiến thức tiềm ẩn tự cải thiện đầu ra. Các thử nghiệm mở rộng trên nhiều họ mô hình và quy mô khác nhau (từ 1B đến 45B), bao gồm Gemma, Qwen, Mixtral và gpt-oss, cũng như các cấu hình kiến trúc tiên tiến như MoE, chứng minh rằng SLED luôn cải thiện độ chính xác thực tế so với các phương pháp giải mã hiện có trong khi vẫn duy trì tính trôi chảy của ngôn ngữ tự nhiên và giảm thiểu chi phí độ trễ không đáng kể. Hơn nữa, nó có thể được kết hợp linh hoạt với các phương pháp giải mã khác để nâng cao hiệu suất hơn nữa.