Este artículo propone la Predicción Conformal de Entropía de Token (TECP), un novedoso marco que aprovecha la entropía de tokens para abordar el problema de cuantificación de la incertidumbre (CU) en la generación de lenguajes abiertos bajo restricciones de caja negra. TECP utiliza la entropía a nivel de token como medida de incertidumbre, sin logit ni referencia, y la integra en un pipeline independiente de Predicción Conformal (CP) para generar un conjunto de predicciones con garantías formales de cobertura. A diferencia de los métodos existentes que se basan en heurísticas de consistencia semántica o características de caja blanca, TECP estima directamente la incertidumbre epistémica a partir de la estructura de entropía de tokens de los productos muestreados y calibra los umbrales de incertidumbre mediante cuantiles de CP, lo que garantiza un control de errores verificable. Evaluaciones experimentales en seis modelos de lenguaje a gran escala y dos benchmarks (CoQA y TriviaQA) demuestran que TECP logra consistentemente una cobertura fiable y conjuntos de predicciones compactos, superando a los métodos previos de CU basados en autoconsistencia. Este estudio proporciona una solución eficaz y basada en principios para la generación fiable en el entorno LLM de caja negra.