Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Améliorez la distillation auto-supervisée des ensembles de données via la paramétrisation, l'augmentation prédéfinie et l'approximation

Created by
  • Haebom

Auteur

Sheng-Feng Yu, Jia-Jiun Yao, Wei-Chen Chiu

Contour

Cet article propose une technique de distillation auto-supervisée d'ensembles de données (DSD) pour répondre aux coûts élevés associés aux ensembles de données volumineux nécessaires à l'entraînement de modèles d'apprentissage profond à grande échelle. Contrairement à la distillation supervisée classique, nous présentons une méthode de compression d'images et de représentations obtenues par apprentissage auto-supervisé dans un ensemble de données distillé. Pour y parvenir, nous proposons une nouvelle méthode de paramétrage des images et des représentations utilisant des bases de données de faible dimension, une technique d'augmentation prédéterminée pour remédier à l'instabilité de l'augmentation des données et un réseau léger pour la compression des paires de distillation. Des expériences sur différents ensembles de données démontrent l'efficacité de la méthode proposée, ses performances de généralisation sur différentes architectures et ses performances supérieures en apprentissage par transfert.

Takeaways, Limitations_

Takeaways:
Nous présentons une nouvelle méthode permettant de compresser efficacement de grands ensembles de données à l’aide de l’apprentissage auto-supervisé.
Nous améliorons l'efficacité de la distillation et les performances de généralisation grâce à des techniques telles que la paramétrisation utilisant une base de faible dimension, des techniques d'augmentation prédéterminées et la compression de paires de distillation utilisant des réseaux légers.
Il démontre d’excellentes performances d’apprentissage par transfert sur différentes architectures.
Limitations:
Les performances de la méthode proposée peuvent être affectées par la base de faible dimension choisie. Des recherches supplémentaires sont nécessaires pour déterminer la base optimale.
Les techniques d'augmentation prédéfinies peuvent limiter la diversité des données. Des recherches supplémentaires sont nécessaires pour déterminer comment utiliser efficacement ces techniques.
Les résultats expérimentaux présentés dans cet article peuvent être limités à un ensemble de données et à une architecture spécifiques. D'autres expériences sur un éventail plus large d'ensembles de données et d'architectures sont nécessaires.
👍