Cet article soutient que la résolution du problème de confiance excessive des modèles de détection d'objets basés sur l'apprentissage profond sur des entrées hors distribution (OoD) nécessite une refonte complète du cycle de développement, au-delà des améliorations algorithmiques telles que l'amélioration de la fonction de notation existante et l'ajustement des seuils de temps de test. Nous mettons en évidence les erreurs (jusqu'à 13 % de contamination) des benchmarks d'évaluation de détection OoD existants et proposons un nouveau paradigme d'atténuation du temps d'apprentissage qui ajuste finement le détecteur à l'aide d'un ensemble de données OoD sémantiquement similaire, sans dépendre de détecteurs OoD externes. Cette approche réduit les erreurs d'hallucination de 91 % dans l'environnement BDD-100K pour le modèle YOLO, et démontre sa généralisabilité à diverses méthodes de détection, notamment YOLO, Faster R-CNN et RT-DETR, ainsi qu'à l'adaptation par petits coups.