Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Compresión de secuencias de tokens sin pérdidas mediante metatokens

Created by
  • Haebom

Autor

John Harvill, Ziwei Fan, Hao Wang, Luke Huan, Anoop Deoras, Yizhou Sun, Hao Ding

Describir

A diferencia de investigaciones previas sobre compresión rápida para modelos de lenguaje a gran escala (LLM), que se centran principalmente en métodos que sacrifican información semántica, este artículo presenta una técnica de compresión sin pérdidas, independiente de la tarea y similar a LZ77. En dos tareas de evaluación, demostramos que la técnica propuesta reduce la longitud de las secuencias de tokens de entrada en un 27 % y un 18 %, respectivamente. Además, el uso de un LLM basado en transformadores reduce el cálculo de codificación en un 47 % y un 33 %, respectivamente, debido a la naturaleza cuadrática de la atención. Destacamos que las transformaciones de secuencias de tokens son fácilmente reversibles, sin pérdida de información semántica. Evaluamos la técnica propuesta en dos tareas que requieren la preservación precisa de la información semántica/sintáctica y demostramos que los métodos de compresión con pérdidas existentes tienen un rendimiento inferior en estos entornos. La técnica sin pérdidas presenta una pequeña diferencia de rendimiento en comparación con las entradas sin comprimir, y esperamos que esta diferencia de rendimiento desaparezca por completo con modelos más grandes y mayores presupuestos computacionales.

Takeaways, Limitations

Takeaways:
Presentamos una técnica de compresión sin pérdida independiente de la tarea para indicaciones LLM, demostrando que la longitud de la secuencia del token de entrada se puede reducir significativamente.
Puede reducir eficazmente la carga computacional de codificación del LLM basado en transformador.
Supera los métodos de compresión con pérdida existentes en tareas donde la preservación precisa del significado/sintacticidad es importante.
Limitations:
A pesar de utilizar una técnica de compresión sin pérdida, existe una pequeña diferencia de rendimiento en comparación con la entrada sin comprimir.
La evaluación se limitó a dos tareas, lo que requirió más investigación sobre generalización.
No se han confirmado experimentalmente mejoras en el rendimiento con modelos más grandes y presupuestos computacionales ampliados.
👍