[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Una biblioteca de intrínsecos LLM para la generación aumentada por recuperación

Created by
  • Haebom

Autor

Marina Danilevsky, Kristjan Greenewald, Chulaka Gunasekara, Maeda Hanafi, Lihong He, Yannis Katsis, Krishnateja Killamsetty, Yulong Li, Yatin Nandwani, Lucian Popa, Dinesh Raghu, Frederick Reiss, Vraj Shah, Khoi-Nguyen Tran, Huaiyu Zhu, Luis Lastras

Describir

Este artículo aborda la falta de un patrón de colaboración similar a una biblioteca de software en la comunidad de desarrollo de modelos de lenguaje a gran escala (LLM) y propone la Biblioteca de Intrínsecos LLM para abordar los desafíos del desarrollo de aplicaciones de Generación de Búsqueda Aumentada (RAG), en particular. Los intrínsecos LLM se pueden invocar mediante API bien definidas y ofrecen una funcionalidad robusta, independientemente del estilo de implementación. En este artículo, presentamos los componentes de la Biblioteca de Intrínsecos LLM, implementados con base en el adaptador LoRA de HuggingFace y la plataforma de inferencia vLLM, el uso de cada intrínseco, los detalles de entrenamiento, los resultados de la evaluación y las combinaciones de múltiples intrínsecos.

Takeaways, Limitations

Takeaways: Proporciona una interfaz estandarizada para el desarrollo de aplicaciones basadas en LLM, lo que sugiere la posibilidad de mejorar la eficiencia y la colaboración en el desarrollo. Contribuye a resolver las dificultades del desarrollo de aplicaciones RAG. Potencial para mejorar la compatibilidad entre diversos proveedores de LLM.
Limitations: La biblioteca de intrínsecos LLM propuesta aún se encuentra en sus etapas iniciales y requiere verificación para garantizar su estabilidad y escalabilidad a largo plazo. Se requiere mayor investigación sobre su aplicabilidad y rendimiento de generalización para diversos escenarios LLM y RAG. Dependencia limitada de plataformas LLM e inferencia.
👍