Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

LLM : désapprendre sans un ensemble de données organisé par des experts

Created by
  • Haebom

Auteur

Xiaoyuan Zhu, Muru Zhang, Ollie Liu, Robin Jia, Willie Neiswanger

Contour

Cet article explore une technique de désapprentissage post-hoc qui supprime des domaines de connaissances spécifiques sans réentraîner l'ensemble du modèle. Cette technique vise à résoudre le problème des modèles linguistiques modernes à grande échelle codant des connaissances sensibles, nuisibles ou protégées par le droit d'auteur. Un obstacle majeur aux processus de désapprentissage post-hoc conventionnels réside dans la construction d'« ensembles d'oubli » efficaces qui se rapprochent du domaine cible et incitent le modèle à l'oublier. Cet article présente une approche évolutive et automatisée qui génère des « ensembles d'oubli » de haute qualité à partir du modèle de langage lui-même. Les données de type manuel sont synthétisées via un pipeline d'invite structuré, ne nécessitant que des noms de domaine en entrée. Des expériences de désapprentissage sur la biosécurité, la cybersécurité et les romans Harry Potter démontrent que l'ensemble de données synthétiques surpasse systématiquement les ensembles de données synthétiques existants et offre des performances comparables à celles des ensembles de données sélectionnés par des experts. De plus, des études d'ablation démontrent que le pipeline de génération en plusieurs étapes améliore considérablement la diversité des données, renforçant ainsi l'utilité du désapprentissage. En conclusion, cette étude présente les ensembles de données synthétiques comme une approche prometteuse pour un désapprentissage pratique et évolutif dans divers domaines émergents, sans intervention manuelle. Le code et l'ensemble de données sont accessibles au public à l'adresse https://github.com/xyzhu123/Synthetic_Textbook .

Takeaways, Limitations

Takeaways:
Nous présentons une méthode automatisée pour générer des « ensembles oubliés » en utilisant le modèle de langage lui-même, améliorant l'efficacité et l'évolutivité du processus d'élagage post-formation.
Les ensembles de données synthétiques surpassent les méthodes existantes et produisent des résultats comparables aux ensembles de données sélectionnés par des experts.
Augmentez la diversité des données et améliorez la convivialité de l'apprentissage décalé grâce à un pipeline de génération en plusieurs étapes.
Présenter la possibilité d'élimination pratique post-apprentissage pour divers domaines.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer les performances de généralisation de la méthode proposée. Il existe un risque de surapprentissage dans certains domaines.
La qualité des ensembles de données synthétiques peut dépendre des performances des modèles d’ingénierie et de langage rapides.
Dégradation potentielle des performances en raison de différences par rapport aux données réelles.
Il convient de prendre en compte les problèmes de biais potentiels qui peuvent survenir lors du processus de création d’un « ensemble oublié ».
👍