Cet article aborde le problème de la dégradation des performances due aux changements distributionnels qui surviennent lors de l'application de modèles de reconnaissance pré-entraînés à de nouveaux environnements. Les approches métacognitives existantes utilisent des règles logiques pour caractériser et filtrer les erreurs de modèle, mais l'amélioration de la précision se fait souvent au détriment d'une diminution du rappel. Cet article émet l'hypothèse que l'exploitation de plusieurs modèles pré-entraînés peut atténuer cette dégradation du rappel. Nous formulons le problème de l'identification et de la gestion des prédictions contradictoires issues de différents modèles comme un problème d'inférence inductive basé sur la cohérence, en nous appuyant sur les concepts de l'apprentissage adaptatif (ABL), mais en l'appliquant au moment du test plutôt qu'à celui de l'apprentissage. Les prédictions d'entrée et les règles de détection d'erreur apprises, dérivées de chaque modèle, sont codées dans un programme logique. Nous trouvons ensuite une explication inductive (un sous-ensemble de prédictions du modèle) qui maximise la couverture des prédictions tout en maintenant le taux de divergence logique (dérivé des contraintes du domaine) en dessous d'un seuil spécifié. Nous proposons deux algorithmes pour cette tâche de représentation des connaissances : une méthode exacte basée sur la programmation en nombres entiers (PI) et une recherche heuristique efficace (HS). Des expériences approfondies sur des jeux de données d'imagerie aérienne simulés présentant des variations distributionnelles complexes et contrôlées démontrent que notre cadre d'inférence inductive basé sur la cohérence surpasse à la fois les modèles individuels et les ensembles de référence standard, avec une amélioration d'environ 13,6 % du score F1 et de 16,6 % de la précision par rapport au meilleur modèle individuel sur 15 jeux de données tests différents. Ces résultats démontrent que l'inférence inductive basée sur la cohérence peut être utilisée comme un mécanisme efficace pour intégrer de manière robuste les connaissances issues de multiples modèles imparfaits dans de nouveaux scénarios complexes.