[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Hacia la era del razonamiento: un estudio de las largas cadenas de pensamiento para razonar con modelos de lenguaje grandes

Created by
  • Haebom

Autor

Qiguang Chen, Libo Qin, Jinhao Liu, Dengyun Peng, Jiannan Guan, Peng Wang, Mengkang Hu, Yuhang Zhou, Te Gao, Wanxiang Che

Describir

Este artículo ofrece una investigación exhaustiva del CoT Largo, que desempeña un papel crucial en la mejora de la capacidad de razonamiento de los modelos de lenguaje a gran escala (LLM). Aclaramos sus diferencias con el CoT Corto tradicional y analizamos las características principales del CoT Largo, como el razonamiento profundo, la exploración exhaustiva y la reflexión práctica. Además, investigamos fenómenos como el sobrepensamiento y la expansión del tiempo de inferencia, y sugerimos futuras líneas de investigación, como la integración de la inferencia multimodal, la mejora de la eficiencia y un marco de conocimiento mejorado.

Takeaways, Limitations

Takeaways:
Definimos claramente las diferencias entre CoT largo y CoT corto y proponemos un nuevo sistema de clasificación, sentando así las bases para la investigación de inferencia LLM.
Analizamos las características principales de Long CoT (inferencia profunda, exploración amplia y reflexión procesable) para identificar la causa de la mejora del rendimiento.
Ha proporcionado información sobre fenómenos como el pensamiento excesivo y el tiempo de razonamiento prolongado.
Puede contribuir al avance del campo de inferencia de LLM sugiriendo futuras direcciones de investigación.
Limitations:
Aunque esta es la primera investigación exhaustiva sobre el CoT largo, aún puede no haber consenso sobre la definición precisa o el método de medición del CoT largo.
Las futuras direcciones de investigación sugeridas en el artículo pueden ser hipótesis que aún no han sido verificadas.
Se necesita más investigación sobre la generalización en diferentes arquitecturas y conjuntos de datos LLM.
👍