[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Tarea PRESTA de MRT en IberLEF-2025: Maximizar la recuperación de tablas con múltiples pasos

Created by
  • Haebom

Autor

Maximiliano Hormaz abal Lagos, Alvaro Bueno Sáez, H ector Cerezo-Costas, Pedro Alonso Doval, Jorge Alcalde Vesteiro

Describir

Este artículo presenta un enfoque para la tarea PRESTA (Preguntas y Respuestas sobre Tablas en Español) de IberLEF 2025. Presenta una solución para filtrar y procesar tablas y responder preguntas mediante la generación de código Python con LLM, una evolución de la implementación de MRT para la tarea Semeval 2025. Consta de varios pasos: análisis y comprensión del contenido de la tabla, selección de columnas útiles, generación de instrucciones en lenguaje natural, conversión a código, ejecución y gestión de errores, utilizando un LLM de código abierto con indicaciones optimizadas para cada paso. Con este enfoque, se logró una precisión del 85 %.

Takeaways, Limitations

Takeaways: Demuestra la utilidad de un sistema de preguntas y respuestas basado en tablas, basado en la generación de código mediante LLM. Demuestra la posibilidad de lograr alta precisión utilizando LLM de código abierto y preguntas optimizadas. Demuestra escalabilidad a varios idiomas (español).
Limitations: Falta de descripción detallada de modelos LLM específicos o estrategias de optimización rápida. Falta de descripción detallada de los procesos de gestión de errores y excepciones. La precisión del 85 % podría estar limitada a un conjunto de datos específico. Es necesario verificar el rendimiento de la generalización a otros tipos de tablas o preguntas.
👍