Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

KROMA: Coincidencia de ontologías con recuperación de conocimiento y modelos lingüísticos extensos

Created by
  • Haebom

Autor

Lam Nguyen, Erika Barcelos, Roger French, Yinghui Wu

Describir

KROMA es un novedoso marco de comparación de ontologías (OM) que enriquece dinámicamente el contexto semántico de las tareas de OM mediante el aprovechamiento de modelos de lenguaje a gran escala (LLM). Para abordar la limitada adaptabilidad de los sistemas existentes, aprovecha los LLM dentro de un flujo de trabajo de generación aumentada (RAG) de recuperación, aprovechando el conocimiento estructural, léxico y definicional. Para optimizar el rendimiento y la eficiencia, integra la comparación de conceptos basada en similitud y pasos ligeros de refinamiento de ontologías para eliminar conceptos candidatos y reducir significativamente la sobrecarga de comunicación asociada a las invocaciones de LLM. Experimentos con múltiples conjuntos de datos de referencia demuestran que la integración de LLM ricos en contexto con la recuperación de conocimiento supera a los sistemas de OM existentes y a los enfoques de vanguardia basados ​​en LLM, manteniendo una sobrecarga de comunicación comparable. Este estudio destaca la viabilidad y los beneficios de las técnicas de optimización propuestas (recuperación de conocimiento dirigida, enriquecimiento rápido y refinamiento de ontologías) para la comparación de ontologías a gran escala.

Takeaways, Limitations

Takeaways:
Demostramos que la combinación de las canalizaciones LLM y RAG puede mejorar significativamente el rendimiento y la eficiencia de la correspondencia de ontologías.
Demostramos empíricamente la eficacia de técnicas de optimización como la recuperación de conocimiento de objetivos, el enriquecimiento rápido y la mejora de la ontología.
Logra un rendimiento que supera los sistemas OM existentes y los enfoques de última generación basados ​​en LLM.
Presentamos una solución práctica al problema de correspondencia de ontologías a gran escala.
Limitations:
Puede depender del LLM específico y los resultados pueden verse afectados por el desempeño del LLM.
Debido a las limitaciones del conjunto de datos de referencia utilizado, se necesita más investigación sobre la generalización.
Es posible que se necesiten más investigaciones para establecer los parámetros de optimización para el paso de mejora de la ontología ligera.
Se necesita más investigación sobre la aplicabilidad y generalización a diferentes tipos de ontologías.
👍