본 논문은 저랭크 적응(LoRA)을 통해 대규모 언어 모델(LLM)을 미세 조정하는 과정에서 발생하는 수많은 LoRA 복제본 관리 문제를 해결하는 방법을 제시합니다. 기존 방식은 수천 개의 LoRA를 GPU 메모리에 저장할 수 없어 지속적인 LoRA 로딩 및 언로딩이 필요하지만, 본 논문에서는 LoRA 압축을 통해 이 문제를 해결하고자 합니다. 공유 기저와 LoRA별 스케일링 행렬을 쌍으로 사용하여 LoRA를 공동 압축하는 방법을 제안하며, 효율적인 압축을 위해 LoRA 클러스터링 기법을 추가적으로 활용합니다. 실험 결과, 최대 1000개의 LoRA를 사용한 실험에서 압축된 LoRA가 성능 저하 없이 처리량을 크게 향상시키는 것을 확인하였습니다.
시사점, 한계점
•
시사점:
◦
LoRA 압축을 통해 LLM 서빙 시스템의 처리량을 획기적으로 향상시킬 수 있음을 보여줍니다.
◦
수천 개의 LoRA를 효율적으로 관리하는 방법을 제시하여 대규모 LLM 미세 조정 및 배포의 실용성을 높입니다.
◦
LoRA 클러스터링을 통해 알고리즘의 확장성을 확보합니다.
◦
압축된 LoRA가 원본 LoRA의 성능을 80% 이상 유지하면서 처리량을 크게 증가시킬 수 있음을 실험적으로 증명합니다.
•
한계점:
◦
제안된 방법의 압축률 및 성능 유지율은 LoRA의 특성과 데이터셋에 따라 달라질 수 있습니다.