Bài báo này trình bày một phương pháp mới để giải quyết vấn đề tạo ra các sự kiện hư cấu trong các mô hình ngôn ngữ quy mô lớn (LLM), được sử dụng rộng rãi trong nhiều ứng dụng khác nhau. Các nghiên cứu trước đây tập trung vào việc ước tính độ tin cậy bằng cách phân tích các ranh giới kiến thức được tham số hóa nội bộ của mô hình, nhưng chỉ giới hạn trong các thiết lập bài toán đơn lẻ. Trong bài báo này, chúng tôi đề xuất MAC-Tuning (Nhiều câu trả lời và Điều chỉnh từng bước độ tin cậy), một phương pháp mới cho các thiết lập đa bài toán khó hơn, trong đó nhiều câu hỏi phải được trả lời chính xác cùng lúc. MAC-Tuning tách biệt quá trình dự đoán câu trả lời và quá trình học ước tính độ tin cậy trong quá trình tinh chỉnh trên dữ liệu tham chiếu. Các thí nghiệm mở rộng chứng minh rằng phương pháp được đề xuất cải thiện độ chính xác trung bình lên đến 25% so với các phương pháp hiện có.