Este artículo presenta un método novedoso para resolver el problema de la generación de hechos ficticios en modelos lingüísticos a gran escala (LLM), ampliamente utilizados en diversas aplicaciones. Investigaciones previas se han centrado en la estimación de la confianza mediante el análisis de los límites de conocimiento parametrizados internos del modelo, pero se han limitado a entornos de un solo problema. En este artículo, proponemos MAC-Tuning (ajuste gradual de múltiples respuestas y confianza), un método novedoso para entornos multiproblemáticos más complejos, donde se deben responder con precisión varias preguntas simultáneamente. MAC-Tuning desacopla la predicción de respuestas y el aprendizaje de la estimación de la confianza durante el ajuste fino de datos de referencia. Experimentos exhaustivos demuestran que el método propuesto mejora la precisión promedio hasta en un 25 % con respecto a los métodos existentes.