Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Un estudio comparativo de LLM especializados como recuperadores densos

Created by
  • Haebom

Autor

Hengran Zhang, Keping Bi, Jiafeng Guo

Describir

Este artículo investiga sistemáticamente el impacto de la especialización de dominios en la eficiencia de recuperación al utilizar modelos de lenguaje a gran escala (LLM) como buscadores densos. Como paso crucial hacia el desarrollo de un buscador unificado capaz de gestionar texto, código, imágenes y contenido multimodal, analizamos experimentalmente cómo la adaptación de los LLM a tareas específicas afecta el rendimiento de la recuperación. Realizamos experimentos exhaustivos utilizando ocho LLM Qwen2.5 7B (modelos de línea base, ajuste dirigido, especialización de código/matemáticas, inferencia de texto largo y visión-lenguaje) en entornos de recuperación de disparo cero y aprendizaje supervisado. En el entorno de recuperación de disparo cero, consideramos la recuperación de texto en el punto de referencia BEIR y la recuperación de código en el punto de referencia CoIR. Para evaluar el rendimiento del aprendizaje supervisado, todos los LLM se ajustan con precisión en el conjunto de datos MS MARCO. La especialización matemática y la inferencia de texto largo degradan sistemáticamente el rendimiento en los tres entornos, lo que sugiere un equilibrio entre la inferencia matemática y la correspondencia semántica. El modelo de visión-lenguaje y el LLM específico para código demuestran un rendimiento superior en el método de cero disparos en comparación con otros LLM, superando a BM25 en tareas de recuperación de código y manteniendo un rendimiento comparable al del LLM de referencia en entornos de aprendizaje supervisado. Estos resultados sugieren perspectivas prometedoras para las tareas de recuperación integrada que aprovechan la fusión interdominio e intermodal.

Takeaways, Limitations

Takeaways:
Los LLM basados en modelos de lenguaje de visión y específicos de código demuestran un rendimiento superior en la recuperación de código cero. En particular, superan a BM25 en la recuperación de código.
Presentando la posibilidad de desarrollar un sistema de búsqueda integrado utilizando la fusión entre dominios y entre modos.
Revelando una compensación entre la capacidad de razonamiento matemático y la correspondencia semántica.
Limitations:
Se utilizó un número limitado de LLM y conjuntos de datos. Se requiere investigación adicional que utilice una mayor variedad de LLM y conjuntos de datos.
Se necesitan más investigaciones en entornos distintos del aprendizaje supervisado y el de disparo cero.
Se necesita más investigación sobre el desempeño de generalización de los LLM especializados para tareas específicas.
👍