Este artículo argumenta que abordar el problema del exceso de confianza de los modelos de detección de objetos basados en aprendizaje profundo en entradas Fuera de Distribución (OoD) requiere un replanteamiento integral del ciclo de vida del desarrollo, más allá de mejoras algorítmicas como la mejora de la función de puntuación existente y el ajuste de los umbrales de tiempo de prueba. Destacamos los errores (hasta un 13% de contaminación) de los puntos de referencia de evaluación de detección de OoD existentes y proponemos un nuevo paradigma de mitigación en tiempo de entrenamiento que ajusta el detector utilizando un conjunto de datos de OoD semánticamente similar, en lugar de depender de detectores de OoD externos. Este enfoque reduce los errores de alucinación en un 91% en el entorno BDD-100K para el modelo YOLO y demuestra la generalización a varios métodos de detección, incluyendo YOLO, Faster R-CNN y RT-DETR, así como a la adaptación a disparos pequeños.