[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Tâche PRESTA du MRT IberLEF-2025 : Optimisation de la récupération à partir de tables en plusieurs étapes

Created by
  • Haebom

Auteur

Maximiliano Hormaz abal Lagos, Alvaro Bueno S aez, Hector Cerezo-Costas, Pedro Alonso Doval, Jorge Alcalde Vesteiro

Contour

Cet article présente une approche pour la tâche PRESTA (Questions et réponses sur les tableaux en espagnol) de l'IberLEF 2025. Il présente une solution permettant de filtrer et de traiter les tableaux afin de répondre aux questions grâce à la génération de code Python avec LLM, une évolution de l'implémentation MRT pour la tâche Semeval 2025. Cette approche se déroule en plusieurs étapes : analyse et compréhension du contenu du tableau, sélection des colonnes utiles, génération d'instructions en langage naturel, conversion en code, exécution et gestion des erreurs, en exploitant un LLM open source avec des invites optimisées pour chaque étape. Cette approche a permis d'atteindre une précision de 85 %.

Takeaways, Limitations

Takeaways : Démontre l'utilité d'un système de questions-réponses basé sur la génération de code avec LLM. Montre la possibilité d'atteindre une grande précision grâce à LLM open source et à des invites optimisées. Montre l'évolutivité vers plusieurs langues (espagnol).
Limitations : Absence de description détaillée des modèles LLM spécifiques ou des stratégies d'optimisation rapides. Absence de description détaillée des processus de gestion des erreurs et des exceptions. La précision de 85 % peut être limitée à un ensemble de données spécifique. Il est nécessaire de vérifier les performances de généralisation à d'autres types de tableaux ou de questions.
👍