Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Leyes de escalamiento para el conocimiento estratificado por tareas en modelos de lenguaje cuantizados de gran tamaño posteriores al entrenamiento

Created by
  • Haebom

Autor

Chenxi Zhou, Pengfei Cao, Jiang Li, Jun Zhao, Kang Liu

Describir

Este artículo explora la cuantificación posterior al entrenamiento (PTQ), un método práctico de compresión para abordar los problemas de tamaño que surgen durante el despliegue de modelos de lenguaje a gran escala (LLM). Observamos que estudios previos no han logrado proporcionar una comprensión integral del impacto de la PTQ y las leyes de escala de los modelos cuantificados. Exploramos experimentalmente las leyes de escala jerárquica en diversas tareas. Descomponemos el conocimiento en LLM en habilidades de memorización y explotación y desarrollamos un marco cuantitativo integrado que abarca el tamaño del modelo, el ancho de bits efectivo, el tamaño del conjunto de calibración y el tamaño del grupo. Nuestros resultados revelan que la memorización del conocimiento es significativamente más sensible a los cambios en el ancho de bits efectivo, el tamaño del conjunto de calibración y el tamaño del modelo que la explotación del conocimiento. Estos hallazgos proporcionan una comprensión granular del impacto de la PTQ y ofrecen orientación para desarrollar estrategias de cuantificación conscientes del conocimiento que preserven mejor las funciones cognitivas objetivo.

Takeaways, Limitations

Takeaways:
Proporciona un análisis detallado del impacto del PTQ en la memorización de conocimientos y las habilidades de aplicación de los estudiantes de LLM.
Al revelar diferentes sensibilidades a la memorización y aplicación del conocimiento, proporcionamos información necesaria para mejorar las estrategias de PTQ.
Presentamos un marco cuantitativo integrado que tiene en cuenta el tamaño del modelo, el ancho de bit efectivo, el tamaño del conjunto de calibración y el tamaño del grupo.
Proporciona orientación para desarrollar estrategias de cuantificación conscientes del conocimiento que preserven funciones cognitivas específicas.
Limitations:
Este estudio podría limitarse a una arquitectura LLM y un conjunto de datos específicos. Se requiere mayor investigación sobre diversas arquitecturas LLM y conjuntos de datos.
Es necesaria una mayor validación de la generalización del marco propuesto.
Hay una falta de evaluación del desempeño de PTQ en entornos de implementación del mundo real.
👍