Bài báo này đề cập đến vấn đề suy giảm hiệu suất do sự dịch chuyển phân phối xảy ra khi áp dụng các mô hình nhận dạng được đào tạo trước vào các môi trường mới. Các phương pháp tiếp cận siêu nhận thức hiện có sử dụng các quy tắc logic để mô tả và lọc lỗi mô hình, nhưng việc cải thiện độ chính xác thường đi kèm với việc giảm khả năng nhớ lại. Bài báo này đưa ra giả thuyết rằng việc tận dụng nhiều mô hình được đào tạo trước có thể giảm thiểu sự suy giảm khả năng nhớ lại này. Chúng tôi xây dựng bài toán xác định và quản lý các dự đoán xung đột từ các mô hình khác nhau như một bài toán suy luận quy nạp dựa trên tính nhất quán, dựa trên các khái niệm về học thích ứng (ABL), nhưng áp dụng nó vào thời điểm kiểm tra thay vì thời điểm đào tạo. Các dự đoán đầu vào và các quy tắc phát hiện lỗi đã học được rút ra từ mỗi mô hình được mã hóa trong một chương trình logic. Sau đó, chúng tôi tìm một giải thích quy nạp (một tập hợp con các dự đoán mô hình) giúp tối đa hóa phạm vi dự đoán trong khi vẫn duy trì tỷ lệ sai lệch logic (rút ra từ các ràng buộc miền) dưới một ngưỡng xác định. Chúng tôi đề xuất hai thuật toán cho nhiệm vụ biểu diễn tri thức này: một phương pháp chính xác dựa trên lập trình số nguyên (IP) và một tìm kiếm heuristic hiệu quả (HS). Các thí nghiệm mở rộng trên các tập dữ liệu ảnh hàng không mô phỏng với các biến thể phân phối phức tạp, được kiểm soát cho thấy khuôn khổ suy luận quy nạp dựa trên tính nhất quán của chúng tôi vượt trội hơn cả các mô hình riêng lẻ và các đường cơ sở tổng hợp chuẩn, đạt được cải thiện điểm F1 khoảng 13,6% và cải thiện độ chính xác 16,6% so với mô hình riêng lẻ tốt nhất trên 15 tập dữ liệu thử nghiệm đa dạng. Những kết quả này chứng minh rằng suy luận quy nạp dựa trên tính nhất quán có thể được sử dụng như một cơ chế hiệu quả để tích hợp mạnh mẽ kiến thức từ nhiều mô hình không hoàn hảo trong các tình huống mới đầy thách thức.