Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Library of LLM Intrinsics for Retrieval-Augmented Generation

Created by
  • Haebom

저자

Marina Danilevsky, Kristjan Greenewald, Chulaka Gunasekara, Maeda Hanafi, Lihong He, Yannis Katsis, Krishnateja Killamsetty, Yatin Nandwani, Lucian Popa, Dinesh Raghu, Frederick Reiss, Vraj Shah, Khoi-Nguyen Tran, Huaiyu Zhu, Luis Lastras

개요

본 논문은 대규모 언어 모델(LLM) 개발자 커뮤니티에서 소프트웨어 라이브러리와 유사한 협업 패턴이 부재함을 지적하며, 특히 검색 증강 생성(RAG) 애플리케이션 개발의 어려움을 언급합니다. 이에, 컴파일러 인트린직 개념에서 영감을 얻어 RAG를 위한 LLM 인트린직 라이브러리를 제안합니다. LLM 인트린직은 잘 정의된 API를 통해 호출 가능하고, 구현 방식과 무관하게 안정적인 기능으로 정의됩니다. 본 논문은 Hugging Face의 LoRA 어댑터와 vLLM 기반 소프트웨어 인터페이스를 통해 제공되는 LLM 인트린직 라이브러리의 각 인트린직에 대한 사용 방법, 학습 세부 정보, 평가 및 다중 인트린직 조합을 설명합니다.

시사점, 한계점

시사점:
LLM 기반 RAG 애플리케이션 개발을 위한 표준화된 API 제공으로 개발 효율성 및 협업 증진 가능성 제시.
LoRA 어댑터 및 vLLM 인터페이스를 통한 실질적인 라이브러리 구현 및 공개.
다양한 LLM 인트린직의 조합을 통한 복잡한 RAG 애플리케이션 구축 가능성 시사.
한계점:
제안된 LLM 인트린직 라이브러리가 아직 초기 단계이며, 장기적인 안정성 및 확장성에 대한 검증 필요.
다양한 LLM 및 RAG 시나리오에 대한 광범위한 적용성 검증 부족.
LLM 인트린직의 표준화 및 채택을 위한 업계의 협력 및 합의 필요.
👍