[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

SIDA : adaptation dynamique du domaine SInkhorn pour la classification d'images avec des réseaux neuronaux équivariants

Created by
  • Haebom

Auteur

Sneh Pandya, Purvik Patel, Brian D. Nord, Mike Walmsley, Aleksandra Ciprijanovi c

Contour

Dans cet article, nous proposons un nouvel algorithme d'adaptation de domaine (AD), SIDDA, basé sur la divergence de Sinkhorn, pour résoudre le problème du décalage des covariables, c'est-à-dire la dégradation des performances de généralisation des réseaux de neurones lorsque les distributions des données d'apprentissage et de test sont différentes mais que les distributions conditionnelles sont identiques. SIDDA permet un alignement de domaine efficace avec un réglage des hyperparamètres et un coût de calcul minimes. Nous démontrons l'efficacité de SIDDA sur des ensembles de données simulés et réels (par exemple, des formes simples, des chiffres manuscrits et des données d'observation astronomique) de complexités variées, et démontrons son efficacité pour améliorer la précision de la classification et l'étalonnage des modèles, notamment lorsqu'il est utilisé avec des réseaux de neurones équivariants (RNE). SIDDA permet d'améliorer jusqu'à environ 40 % la précision de la classification et d'améliorer significativement l'étalonnage des modèles (amélioration de plus de 10 fois des scores ECE et Brier). Il est compatible avec diverses architectures de réseaux de neurones et permet le développement de modèles généralisables dans les études multi-ensembles de données. De plus, nous étudions l'effet de l'adaptation de domaine dans les ENN avec des groupes dièdres $D_N$ de divers degrés et constatons que les performances du modèle s'améliorent à mesure que le degré d'isomorphisme augmente.

Takeaways, Limitations

Takeaways:
Nous présentons l'algorithme SIDDA, qui permet une adaptation efficace du domaine avec un réglage minimal des hyperparamètres.
Améliore les performances de généralisation des réseaux neuronaux sur divers ensembles de données, en particulier lorsqu'ils sont combinés avec des réseaux neuronaux équilatéraux.
Améliore considérablement la précision de la classification et l'étalonnage du modèle (ECE, score Brier).
Contribuer au développement de modèles généralisables pour les études multi-ensembles de données.
Nous avons constaté que plus le degré d’isomorphisme d’un réseau neuronal équivariant est élevé, plus l’effet d’adaptation du domaine est important.
Limitations:
Dans cet article, nous avons validé les performances de l’algorithme SIDDA sur divers ensembles de données, mais des expériences supplémentaires sur une gamme plus large d’ensembles de données et de tâches peuvent être nécessaires.
Il existe un manque d’analyse comparative quantitative sur l’efficacité informatique de l’algorithme SIDDA par rapport aux autres méthodes DA.
Une analyse comparative avec d’autres techniques d’alignement de domaine autres que la divergence Sinkhorn est nécessaire.
👍