[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Estaciones de alucinación: sobre algunas limitaciones básicas de los modelos de lenguaje basados en transformadores

Created by
  • Haebom

Autor

Varin Sikka, Vishal Sikka

Describir

Este artículo explora las alucinaciones y las limitaciones de rendimiento relacionadas que surgen en los modelos de lenguaje a gran escala (LLM) y los agentes basados en LLM desde la perspectiva de la complejidad computacional. Demostramos que, a partir de cierta complejidad, los LLM no pueden realizar tareas computacionales ni de agente, ni verificar su exactitud.

Takeaways, Limitations

Takeaways: Sugiere que la capacidad computacional de LLM es limitada y podría tener dificultades para realizar tareas complejas y verificar la precisión. Se enfatiza la necesidad de que el diseño y la utilización de LLM consideren la complejidad.
Limitations: Los criterios de complejidad específica no se presentan con claridad. Se requiere más investigación sobre la generalización a diferentes tipos de tareas y agentes. Se requiere un análisis más detallado del fenómeno de la alucinación en LLM.
👍