[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

UPCORE : Sélection de coresets préservant l'utilité pour un désapprentissage équilibré

Created by
  • Haebom

Auteur

Vaidehi Patil, Elias Stengel-Eskin, Mohit Bansal

Contour

Dans cet article, nous proposons un cadre de sélection de coresets préservant l'utilité (UPCORE) pour remédier à la dégradation des performances lors du processus de désapprentissage, qui implique la suppression ou l'oubli de certains points de données d'un modèle pré-entraîné, notamment dans les modèles de langage à grande échelle (LLM). UPCORE minimise la dégradation des performances du modèle après désapprentissage en supprimant les valeurs aberrantes de l'ensemble oublié corrélées à la variance des représentations du modèle. À travers trois méthodes de désapprentissage standard, UPCORE équilibre efficacement les objectifs contradictoires d'efficacité de la suppression des données et de préservation des performances du modèle, et nous le démontrons à l'aide d'une nouvelle métrique d'évaluation basée sur l'AUC. UPCORE améliore les performances en favorisant le transfert positif entre le coreset et les points de données supprimés, et en réduisant le transfert négatif des points de données supprimés vers d'autres points de données.

Takeaways, Limitations

Takeaways:
Nous présentons UPCORE, un cadre de sélection de données efficace qui minimise la dégradation des performances du modèle lors du désapprentissage.
En révélant la corrélation entre la corruption du modèle et la variance de la représentation, nous fournissons des informations sur l’amélioration des stratégies de désapprentissage.
Nous présentons une nouvelle mesure d’évaluation basée sur l’AUC qui mesure l’équilibre entre l’efficacité de la suppression des données et le maintien des performances du modèle.
Assurer la généralité avec une méthodologie applicable à diverses méthodes de désapprentissage.
Limitations:
L’efficacité de la méthode proposée a été vérifiée expérimentalement, mais des expériences supplémentaires sur diverses architectures de modèles et ensembles de données sont nécessaires.
ÉTant donné que l’indice d’évaluation basé sur l’ASC est nouvellement proposé dans cet article, une validation supplémentaire dans d’autres études est nécessaire.
Manque d'analyse de la complexité et de l'efficacité de calcul d'UPCORE.
Manque de prise en compte des problèmes d’évolutivité qui peuvent survenir lors de l’application à des LLM à grande échelle dans le monde réel.
👍