Este artículo presenta un método de ajuste MAC propuesto para resolver el problema de alucinación de los modelos de lenguaje a gran escala (LLM), es decir, el problema de generar hechos inexistentes. A diferencia de estudios previos centrados en un único problema, este artículo aborda el problema de los LLM que reconocen sus propios límites de conocimiento parametrizados en un entorno multiproblemático donde se deben responder con precisión varios problemas simultáneamente. El ajuste MAC es un método novedoso que separa la predicción de respuestas y el aprendizaje de la estimación de confianza durante el ajuste fino de datos de referencia. Los resultados experimentales muestran que mejora la precisión promedio hasta en un 25 % con respecto a los métodos existentes.