Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Mémorisation dans les grands modèles linguistiques affinés

작성자
  • Haebom

Auteur

Danil Savine

Contour

Cette étude examine les mécanismes et facteurs de mémoire dans les modèles linguistiques à grande échelle (LLM) affinés, en se concentrant sur les préoccupations en matière de confidentialité dans le domaine de la santé. À l'aide de l'ensemble de données PHEE d'événements de pharmacovigilance, nous examinons comment divers aspects du processus d'affinement affectent la tendance du modèle à mémoriser les données d'entraînement. Nous détectons les données mémorisées à l'aide de deux méthodes principales : les attaques par inférence d'appartenance et une tâche de génération utilisant des préfixes d'invite. Nous analysons l'application de différentes matrices de pondération dans les architectures de transformateurs, la relation entre perplexité et mémorisation, et l'effet de l'augmentation du rang dans l'affinement par adaptation de rang faible (LoRA). Les principaux résultats sont les suivants : (1) les matrices de valeurs et de sortie contribuent davantage à la mémorisation que les matrices de requêtes et de clés ; (2) une perplexité plus faible dans les modèles affinés conduit à une mémorisation accrue ; et (3) des rangs LoRA plus élevés conduisent à une mémorisation accrue, mais avec des rendements décroissants. Ces résultats apportent un éclairage sur le compromis entre performance du modèle et risques pour la confidentialité dans les LLM affinés. Les résultats de cette étude fournissent des orientations Takeaways pour développer des stratégies plus efficaces et responsables pour appliquer des modèles linguistiques à grande échelle tout en gérant les problèmes de confidentialité des données.

Takeaways, Limitations_

Takeaways:
En révélant que des matrices de pondération spécifiques (valeurs, matrices de sortie) dans le LLM affiné contribuent davantage à la mémorisation des données de formation, nous contribuons à établir une stratégie de réglage fin soucieuse de la confidentialité.
Aide à équilibrer les performances du modèle et la confidentialité en identifiant la corrélation entre l’embarras et la mémorisation.
Contribue au développement d'une stratégie efficace d'ajustement des paramètres LoRA en présentant l'évolution des modèles de mémorisation en fonction de l'augmentation de la classe LoRA.
En se concentrant sur les questions de confidentialité dans le domaine de la santé, il fournit des informations importantes pour les applications pratiques.
Limitations:
Limitations de la généralisabilité en utilisant un seul ensemble de données PHEE.
Des recherches supplémentaires sont nécessaires pour déterminer si cette généralisation s’applique à diverses architectures LLM ou à des techniques de réglage fin.
ÉTant donné que nous avons évalué la mémorisation en utilisant seulement deux méthodes, les attaques par inférence d’appartenance et les tâches de génération, d’autres mesures de mémorisation doivent être envisagées.
Plutôt que de présenter des stratégies de confidentialité spécifiques, l’accent est mis sur l’amélioration de la compréhension des mécanismes de mémorisation.
👍