Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

El pensamiento inverso guiado por ontología fortalece los modelos de lenguaje grandes en la respuesta a preguntas de gráficos de conocimiento

Created by
  • Haebom

Autor

Runxuan Liu, Bei Luo, Jiaqi Li, Baoxin Wang, Ming Liu, Dayong Wu, Shijin Wang, Bing Qin

Describir

Este artículo propone el Pensamiento Inverso Guiado por Ontologías (ORT), un novedoso marco para mejorar el rendimiento del Análisis de Preguntas y Respuestas de Grafos de Conocimiento (KGQA) en modelos de lenguaje a gran escala (LLM). Para abordar el problema de que los métodos KGQA existentes se basan en la correspondencia de vectores de entidades y tienen dificultades para responder preguntas que requieren inferencia de varios pasos, proponemos ORT, que construye una ruta de inferencia desde un objetivo hasta una condición, inspirada en el razonamiento inverso humano. ORT consta de tres pasos: extraer las etiquetas de objetivo y condición mediante LLM, generar una ruta de inferencia de etiquetas basada en la ontología de grafos de conocimiento y recuperar el conocimiento mediante dicha ruta. Los resultados experimentales en los conjuntos de datos WebQSP y CWQ demuestran que ORT alcanza un rendimiento de vanguardia y mejora significativamente la capacidad KGQA de los LLM.

Takeaways, Limitations

Takeaways:
Un enfoque novedoso para resolver problemas de inferencia de múltiples pasos en KGQA basado en LLM.
Reduzca la pérdida de información y la redundancia utilizando métodos de inferencia inversa.
Mejore la precisión generando rutas de inferencia basadas en ontología.
Lograr un rendimiento de última generación en los conjuntos de datos WebQSP y CWQ.
Limitations:
Se necesita más investigación para determinar la generalidad del marco ORT propuesto y su aplicabilidad a otros gráficos de conocimiento o tipos de preguntas.
Dado que depende del rendimiento de LLM, las limitaciones de LLM pueden afectar el rendimiento de ORT.
Necesidad de evaluar el rendimiento del procesamiento para preguntas complejas o ambiguas
👍