Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

KCR: Resolución de conflictos de conocimiento de largo contexto mediante razonamiento en LLM

Created by
  • Haebom

Autor

Xianda Zheng, Zijian Huang, Meng-Fen Chiang, Michael J. Witbrock, Kaiqi Zhao

Describir

Este artículo propone un marco de Razonamiento de Conflictos de Conocimiento (RCC) para abordar el problema de los modelos de lenguaje a gran escala (MLC) que luchan por resolver conflictos de conocimiento provenientes de múltiples fuentes, en particular conflictos de conocimiento en contextos conflictivos en textos extensos. El RCC se basa en el aprendizaje por refuerzo para entrenar a los MLC a seleccionar y adherirse a contextos con mayor consistencia lógica cuando se presentan en contextos conflictivos. Primero, extrae rutas de inferencia, expresadas como texto o grafos de conocimiento local, de contextos de texto extenso conflictivos. Con base en estas rutas, el modelo se entrena para seguir la ruta de inferencia correcta, mejorando así su capacidad para resolver conflictos de conocimiento en contextos de texto extenso. Los resultados experimentales demuestran que el marco propuesto mejora significativamente la capacidad de resolución de conflictos de conocimiento de varios MLC.

Takeaways, Limitations

Takeaways:
Contribuye a mejorar la capacidad del LLM para procesar contextos de formato largo.
Presenta un enfoque novedoso para el procesamiento de información conflictiva.
Mejorar eficazmente la capacidad de razonamiento del LLM mediante el uso del aprendizaje de refuerzo.
Proporciona un marco general aplicable a una variedad de LLM.
Limitations:
El rendimiento del marco propuesto puede depender del algoritmo de aprendizaje de refuerzo y de la función de recompensa utilizada.
La precisión del proceso de extracción de la ruta de inferencia puede afectar el rendimiento general.
Puede que sólo sea eficaz para determinados tipos de conflictos de conocimiento.
El rendimiento puede variar según la calidad y la cantidad de datos de entrenamiento.
👍