Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Cequel: Consulta rentable de modelos lingüísticos grandes para agrupamiento de texto

Created by
  • Haebom

Autor

Hongtao Wang, Taiyan Zhang, Renchi Yang, Jianliang Xu

Describir

Este artículo propone un marco rentable llamado Cequel para abordar el alto costo de la agrupación de textos mediante modelos lingüísticos a gran escala (LLM). Cequel utiliza los algoritmos EdgeLLM y TriangleLLM para consultar selectivamente los LLMs en busca de pares o tripletes de textos ricos en información, generando restricciones de enlace obligatorio y no vinculable. Estas restricciones se utilizan posteriormente en un algoritmo de agrupación por restricciones ponderadas para formar agrupaciones de alta calidad. EdgeLLM y TriangleLLM identifican y extraen eficientemente las restricciones ricas en información mediante una estrategia de selección voraz cuidadosamente diseñada y una técnica de incitación. Los resultados experimentales en diversos conjuntos de datos de referencia demuestran que Cequel supera a los métodos de agrupación de textos no supervisados ​​existentes con el mismo presupuesto de consulta.

Takeaways, Limitations

Takeaways:
Presentamos un marco rentable que logra una agrupación de texto precisa incluso con presupuestos de consulta LLM limitados.
Mejore el rendimiento extrayendo eficientemente restricciones ricas en información utilizando los algoritmos EdgeLLM y TriangleLLM.
Demuestra un rendimiento superior a los métodos existentes en varios conjuntos de datos de referencia.
Limitations:
Tal vez falte una discusión detallada sobre la configuración óptima de los parámetros del algoritmo propuesto.
Tal vez sea necesario realizar un análisis más profundo del rendimiento de generalización para diferentes tipos de LLM.
Tal vez sea necesario evaluar la escalabilidad y el rendimiento del procesamiento en tiempo real para aplicaciones prácticas.
👍