Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

DisCoPatch : maîtriser les statistiques de lots pilotées par des adversaires pour une meilleure détection des messages hors distribution

Created by
  • Haebom

Auteur

Francisco Caetano, Christiaan Viviers, Luis A. Zavala-Mondragón , Peter HN de With, Fons van der Sommen

Contour

Dans cet article, nous présentons une méthode de détection hors distribution (OOD) qui se concentre sur le décalage de covariable, un changement subtil de la distribution des données qui entraîne une dégradation des performances de l'apprentissage automatique, contrairement aux problèmes OOD sémantiques et de décalage de domaine existants. Nous proposons un cadre d'autoencodeur variationnel antagoniste (VAE) basé sur l'apprentissage non supervisé appelé DisCoPatch. Ce cadre exploite la caractéristique selon laquelle les échantillons réels et antagonistes forment des domaines distincts avec des statistiques de lot uniques dans un discriminateur antagoniste entraîné par la normalisation par lots (BN). DisCoPatch entraîne le discriminateur en utilisant les sorties incorrectes (échantillons générés et reconstruits) du VAE comme échantillons négatifs, clarifiant ainsi la frontière entre les échantillons dans la distribution et le décalage de covariable. Par conséquent, il atteint des performances de pointe avec 95,5 % d'AUROC sur ImageNet-1K(-C) et 95,0 % de performance sur le benchmark Near-OOD, offrant une solution pratique de détection OOD avec une taille de modèle réduite de 25 Mo et une faible latence. Le code source est également open source.

Takeaways, Limitations

Takeaways:
Une méthode efficace de détection OOD pour le changement de covariable est présentée.
Atteindre des performances de pointe sur les benchmarks ImageNet-1K(-C) et Near-OOD.
Démontrer l'applicabilité pratique avec une petite taille de modèle et une faible latence.
Assurer la reproductibilité et l'extensibilité de la recherche grâce au code open source.
Limitations:
Une validation supplémentaire des performances de généralisation de la méthode présentée dans cet article peut être nécessaire.
Les paramètres d'hyperparamètres optimisés pour un ensemble de données spécifique peuvent en réalité entraîner de mauvaises performances lorsqu'ils sont appliqués à d'autres ensembles de données.
Des évaluations de robustesse supplémentaires pour différents types de données OOD peuvent être nécessaires.
👍