Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Cequel : Interrogation rentable de grands modèles linguistiques pour le clustering de texte

Created by
  • Haebom

Auteur

Hongtao Wang, Taiyan Zhang, Renchi Yang, Jianliang Xu

Contour

Cet article propose un cadre économique appelé Cequel pour répondre au coût élevé du clustering de textes à l'aide de modèles de langage à grande échelle (MLL). Cequel utilise les algorithmes EdgeLLM et TriangleLLM pour interroger sélectivement les LLM sur des paires ou des triplets de textes riches en informations, générant ainsi des contraintes de liaison obligatoire et de liaison impossible. Ces contraintes sont ensuite utilisées dans un algorithme de clustering par contraintes pondérées pour former des clusters de haute qualité. EdgeLLM et TriangleLLM identifient et extraient efficacement les contraintes riches en informations grâce à une stratégie de sélection gloutonne et une technique d'invite soigneusement conçues. Les résultats expérimentaux sur divers jeux de données de référence démontrent que Cequel surpasse les méthodes de clustering de textes non supervisées existantes pour un même budget de requête.

Takeaways, Limitations

Takeaways:
Nous présentons un cadre rentable qui permet un regroupement de texte précis même avec des budgets de requête LLM limités.
Améliorez les performances en extrayant efficacement les contraintes riches en informations à l'aide des algorithmes EdgeLLM et TriangleLLM.
Il démontre des performances supérieures aux méthodes existantes sur divers ensembles de données de référence.
Limitations:
Une discussion détaillée sur les paramètres optimaux de l’algorithme proposé peut faire défaut.
Une analyse plus approfondie des performances de généralisation pour différents types de LLM peut être nécessaire.
L’évolutivité et les performances de traitement en temps réel peuvent devoir être évaluées pour des applications pratiques.
👍