Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

La tarea importa: los requisitos de conocimiento dan forma a las respuestas de LLM al conflicto entre contexto y memoria

Created by
  • Haebom

Autor

Kaiser Sun, Fan Bai, Mark Dredze

Describir

Este artículo aborda el problema de que los modelos lingüísticos a gran escala (LLM) requieren tanto conocimiento contextual como memoria de parámetros, aunque estas dos fuentes de información pueden entrar en conflicto. Investigaciones previas han reportado una preferencia por el conocimiento de parámetros en situaciones de conflicto, pero se han centrado únicamente en tareas que requieren dependencia de una oración dada. Este estudio utiliza un marco de diagnóstico independiente del modelo que detecta automáticamente desajustes entre las creencias de un modelo y un conjunto de conocimientos predefinidos, e introduce conflictos controlados en la tarea. Investigamos cómo se manifiesta este comportamiento en función de la cantidad y el tipo de conocimiento requerido por la tarea. Utilizando un conjunto de datos que abarca dos dimensiones mutuamente ortogonales (dependencia del conocimiento de la tarea y validez del conflicto), evaluamos un LLM representativo de código abierto y observamos que la degradación del rendimiento debido a conflictos se correlaciona con la dependencia del conocimiento de la tarea. Además, observamos que la evidencia explicativa y la repetición simple aumentan la dependencia contextual, pero son perjudiciales cuando el conocimiento de parámetros debería predominar. Este comportamiento plantea dudas sobre la validez de las evaluaciones basadas en modelos y destaca la necesidad de considerar los conflictos de conocimiento al implementar LLM.

Takeaways, Limitations

Takeaways:
La degradación del rendimiento de LLM depende de la dependencia del conocimiento de la tarea y del grado de conflicto.
La justificación explicativa y la simple repetición pueden aumentar la dependencia del contexto, pero en realidad pueden disminuir el rendimiento dependiendo de la situación.
Plantea inquietudes acerca de la validez de las evaluaciones basadas en modelos y enfatiza la importancia de considerar los conflictos de conocimiento al distribuir títulos de LLM.
Limitations:
Tipos de LLM de código abierto y limitaciones de los conjuntos de datos utilizados en este estudio.
Se necesitan más investigaciones para explorar la generalización de los marcos de diagnóstico independientes del modelo.
Es necesario un análisis más profundo de los diferentes tipos de conflictos de conocimiento y las respuestas resultantes de los LLM.
👍