Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

ÉTude de l'impact des méthodes de quantification sur la sécurité et la fiabilité des grands modèles linguistiques

Created by
  • Haebom

Auteur

Artyom Kharinaev, Viktor Moskvoretskii, Egor Shvetsov, Kseniia Studenikina, Bykov Mikhail, Evgeny Burnaev

Contour

Dans cet article, nous présentons l'ensemble de données de sécurité OpenMiniSafety, composé de 1 067 questions difficiles, afin d'évaluer l'impact des techniques de quantification sur la sécurité et la fiabilité afin d'améliorer l'efficacité des modèles linguistiques à grande échelle (LLM). À partir de cet ensemble de données, nous publions 4 268 paires questions-réponses annotées pour quatre LLM (versions quantifiée et de précision) et évaluons 66 variantes de modèles quantifiés à l'aide de quatre méthodes de quantification post-apprentissage (PTQ) et de deux méthodes d'apprentissage sensible à la quantification (QAT) sur quatre critères de sécurité (dont une évaluation centrée sur l'humain). Nos résultats montrent que les méthodes PTQ et QAT peuvent toutes deux dégrader l'alignement de sécurité, tandis que les techniques QAT telles que QLORA ou STE sont moins sûres. Nous soulignons qu'aucune méthode ne surpasse systématiquement les autres, quels que soient les critères de sécurité, les paramètres de précision ou les modèles, ce qui démontre la nécessité de stratégies de compression soucieuses de la sécurité. De plus, les méthodes spécifiques à la précision telles que QUIK et AWQ (4 bits), AQLM et Q-PET (2 bits) surpassent leur précision cible, ce qui signifie que ces méthodes ne sont pas meilleures en compression, mais plutôt des approches différentes.

Takeaways, Limitations

Takeaways:
Fournir une référence standardisée pour l'évaluation de la sécurité et de la fiabilité de la quantification LLM via l'ensemble de données OpenMiniSafety.
Présentation des résultats d'analyses approfondies sur l'impact des techniques PTQ et QAT sur la sécurité du LLM.
Vérification de l'efficacité des techniques de quantification spécifiques à la précision.
Souligne la nécessité de développer des stratégies de compression LLM qui prennent en compte la sécurité.
Limitations:
Les types de techniques LLM et de quantification utilisés dans l’évaluation peuvent être limités.
Des recherches supplémentaires sont nécessaires sur la polyvalence et la généralisabilité de l’ensemble de données OpenMiniSafety.
ÉTant donné que la supériorité d’une technique de quantification spécifique varie selon les modèles et les critères de référence, il est difficile de suggérer une stratégie de quantification optimale.
👍