Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Compresión de indicaciones LLM guiada por árboles de análisis

Created by
  • Haebom

Autor

Wenhao Mao, Chengbin Hou, Tianyu Zhang, Xinyu Lin, Ke Tang, Hairong Lv.

Describir

Este artículo explora cómo proporcionar un contexto rico para mejorar el rendimiento de los modelos lingüísticos a gran escala (LLM). Para abordar el mayor coste computacional de los modelos lingüísticos extensos y el tamaño de entrada limitado de los LLM, proponemos PartPrompt, un novedoso método de compresión selectiva que supera las limitaciones de los métodos generativos y selectivos existentes. PartPrompt utiliza un árbol sintáctico basado en reglas lingüísticas para calcular la entropía de la información de cada nodo y, con base en esto, construye un árbol global que considera la estructura jerárquica (dependencias entre oraciones, párrafos y secciones). Ajusta los valores de los nodos mediante propagación ascendente y descendente en el árbol global y, posteriormente, comprime los modelos lingüísticos mediante la poda del árbol mediante un algoritmo recursivo basado en los valores ajustados. Los resultados experimentales demuestran que PartPrompt alcanza un rendimiento de vanguardia en diversos conjuntos de datos, métricas de evaluación, tasas de compresión y LLM. También demuestra superioridad en la cohesión de los modelos lingüísticos comprimidos y en escenarios con modelos lingüísticos extremadamente largos.

Takeaways, Limitations

Takeaways:
Presentamos un nuevo método de compresión rápida que aborda de manera efectiva las limitaciones de entrada y los problemas de costo computacional de LLM.
Superar las limitaciones de los métodos existentes considerando las reglas del lenguaje y las estructuras globales.
Lograr un rendimiento de última generación en diversos conjuntos de datos y LLM.
Se mejoró la cohesión de las indicaciones comprimidas.
Demostrado su eficacia incluso para indicaciones extremadamente largas.
Limitations:
El rendimiento de PartPrompt puede depender de la precisión de las reglas del lenguaje y del análisis de sintaxis.
Se necesita más investigación sobre el rendimiento de generalización para idiomas o dominios específicos.
Es necesario evaluar la eficiencia del procesamiento de indicaciones con estructuras muy complejas.
👍