Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Lois d'échelle pour les connaissances stratifiées par tâches dans les modèles de langage quantifiés post-formation

Created by
  • Haebom

Auteur

Chenxi Zhou, Pengfei Cao, Jiang Li, Jun Zhao, Kang Liu

Contour

Cet article explore la quantification post-apprentissage (PTQ), une méthode de compression pratique permettant de résoudre les problèmes de taille qui surviennent lors du déploiement de modèles linguistiques à grande échelle (LLM). Nous constatons que les études précédentes n'ont pas permis de comprendre de manière exhaustive l'impact de la PTQ et les lois d'échelle des modèles quantifiés. Nous avons exploré expérimentalement les lois d'échelle hiérarchiques à travers diverses tâches. Nous décomposons les connaissances des LLM en compétences de mémorisation et d'exploitation, et développons un cadre quantitatif intégré englobant la taille du modèle, la largeur de bit effective, la taille de l'ensemble de calibration et la taille du groupe. Nos résultats révèlent que la mémorisation des connaissances est significativement plus sensible aux variations de largeur de bit effective, de taille de l'ensemble de calibration et de taille du modèle que l'exploitation des connaissances. Ces résultats fournissent une compréhension fine de l'impact de la PTQ et offrent des pistes pour développer des stratégies de quantification tenant compte des connaissances et préservant mieux les fonctions cognitives ciblées.

Takeaways, Limitations

Takeaways:
Fournit une analyse détaillée de l'impact du PTQ sur les compétences de mémorisation et d'application des connaissances des étudiants en LLM.
En révélant différentes sensibilités à la mémorisation et à l’application des connaissances, nous fournissons les informations nécessaires pour améliorer les stratégies PTQ.
Nous présentons un cadre quantitatif intégré qui prend en compte la taille du modèle, la largeur effective des bits, la taille de l’ensemble d’étalonnage et la taille du groupe.
Fournit des conseils pour développer des stratégies de quantification tenant compte des connaissances qui préservent les fonctions cognitives ciblées.
Limitations:
Cette étude pourrait se limiter à une architecture et un ensemble de données LLM spécifiques. Des recherches complémentaires sont nécessaires sur diverses architectures et ensembles de données LLM.
Une validation supplémentaire de la généralisabilité du cadre proposé est nécessaire.
Il existe un manque d’évaluation des performances PTQ dans les environnements de déploiement réels.
👍