[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Generación de consultas SPARQL con LLM: medición del impacto de la memorización de datos de entrenamiento y la inyección de conocimiento

Created by
  • Haebom

Autor

Aleksandr Gashkov, Aleksandr Perevalov, Maria Eltsova, Andreas Both

Describir

Este documento tiene como objetivo mejorar la calidad del proceso de conversión de preguntas de lenguaje natural en consultas SPARQL (construcción de consultas) en un sistema de respuesta a preguntas de grafos de conocimiento (KGQA) utilizando un modelo de lenguaje a gran escala (LLM). Los sistemas KGQA basados en LLM existentes tienen una limitación en el sentido de que no pueden saber si los datos de entrenamiento de LLM incluyen puntos de referencia o grafos de conocimiento. Por lo tanto, en este documento, presentamos una nueva metodología para evaluar la calidad de la generación de consultas SPARQL de LLM bajo varias condiciones, como (1) generación de SPARQL de disparo cero, (2) inyección de conocimiento y (3) inyección de conocimiento anonimizado. A través de esto, estimamos por primera vez el impacto de los datos de entrenamiento de LLM en la mejora de la calidad de QA y evaluamos la generalización del método distinguiendo entre el rendimiento real de LLM y el efecto de la memorización de los datos de entrenamiento. El método propuesto es portátil y robusto, y se puede aplicar a varios grafos de conocimiento, proporcionando información consistente.

Takeaways, Limitations

Takeaways:
Se presenta una nueva metodología para analizar cuantitativamente el impacto de los datos de aprendizaje de LLM en el desempeño de KGQA.
Establecer criterios para distinguir entre el desempeño real del LLM y el mero efecto de memorización
Proporciona un método de evaluación altamente portátil aplicable a varios gráficos de conocimiento y LLM.
Contribuye a mejorar la confiabilidad y el rendimiento de generalización del sistema KGQA
Limitations:
No hay suficientes resultados experimentales para evaluar el desempeño del método propuesto (este resumen por sí solo no permite emitir un juicio).
Puede haber sesgo hacia ciertos gráficos de conocimiento o LLM (no es posible determinarlo solo a partir de este resumen)
Falta de una descripción detallada de los métodos y efectos específicos de la “inyección de conocimiento anónimo” (es imposible juzgar solo a partir de este resumen).
👍