A Library of LLM Intrinsics for Retrieval-Augmented Generation
Created by
Haebom
저자
Marina Danilevsky, Kristjan Greenewald, Chulaka Gunasekara, Maeda Hanafi, Lihong He, Yannis Katsis, Krishnateja Killamsetty, Yulong Li, Yatin Nandwani, Lucian Popa, Dinesh Raghu, Frederick Reiss, Vraj Shah, Khoi-Nguyen Tran, Huaiyu Zhu, Luis Lastras
개요
본 논문은 대규모 언어 모델(LLM) 개발 커뮤니티에서 소프트웨어 라이브러리와 유사한 협업 패턴이 부족함을 지적하며, 특히 검색 증강 생성(RAG) 애플리케이션 개발의 어려움을 해결하기 위해 LLM 인트린직 라이브러리를 제안한다. LLM 인트린직은 잘 정의된 API를 통해 호출 가능하고, 구현 방식과 무관하게 안정적인 기능을 제공한다. 본 논문에서는 HuggingFace의 LoRA 어댑터와 vLLM 추론 플랫폼을 기반으로 구현된 LLM 인트린직 라이브러리의 구성 요소, 각 인트린직의 사용 방법, 학습 세부 정보, 평가 결과 및 다중 인트린직 조합에 대해 설명한다.
시사점, 한계점
•
시사점: LLM 기반 애플리케이션 개발을 위한 표준화된 인터페이스 제공으로 개발 효율 및 협업 증진 가능성 제시. RAG 애플리케이션 개발의 어려움 해소에 기여. 다양한 LLM 제공업체 간의 호환성 향상 가능성.
•
한계점: 제안된 LLM 인트린직 라이브러리가 아직 초기 단계이며, 장기적인 안정성과 확장성에 대한 검증 필요. 다양한 LLM 및 RAG 시나리오에 대한 적용 가능성 및 일반화 성능에 대한 추가 연구 필요. 제한된 LLM 및 추론 플랫폼에 대한 의존성.