Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Razonamiento neurosimbólico sólido y completo con LLM - Interpretaciones fundamentadas

Created by
  • Haebom

Autor

Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth

Describir

Este artículo presenta un método para aprovechar el amplio conocimiento de los modelos lingüísticos a gran escala (LLM) para el razonamiento formal. Para abordar el problema de la consistencia lógica en la salida generada por los LLM, proponemos un método que los integra directamente en la función de interpretación semántica formal de la lógica paraconsistente. Demostramos la viabilidad de este método mediante experimentos con varios conjuntos de datos de referencia de factualidad de oraciones cortas. Además, a diferencia de estudios previos, proporcionamos un marco teórico para el razonamiento neurosimbólico que aprovecha el conocimiento de los LLM, preservando la solidez y la integridad de la lógica subyacente.

Takeaways, Limitations

Takeaways:
Presentamos una nueva forma de aplicar el conocimiento LLM al razonamiento formal.
Solución del problema de consistencia lógica de LLM utilizando lógica tolerante a paradojas
Proporcionar un nuevo marco teórico para el razonamiento simbólico neuronal
Los resultados experimentales demuestran la viabilidad del método.
Limitations:
Se necesita más investigación para determinar la escalabilidad y generalización del método propuesto.
Se necesitan experimentos adicionales en varios tipos de conjuntos de datos lógicos y de referencia.
Es necesario un análisis para determinar cómo la elección y las características de la lógica que permite la paradoja afectan los resultados.
👍