Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SlimPipe: Memory-Thrifty and Efficient Pipeline Parallelism for Long-Context LLM Training

Created by
  • Haebom

저자

Zhouyang Li, Yuliang Liu, Wei Zhang, Tailing Yuan, Bin Chen, Chengru Song, Di Zhang

개요

본 논문은 대규모 언어 모델(LLM) 훈련을 위한 파이프라인 병렬 처리(PP)의 효율성을 높이는 새로운 방법인 SlimPipe를 제안합니다. 기존 PP 방법들은 긴 문맥 시나리오에서 활성화 메모리 압력과 파이프라인 버블 문제로 효율성이 떨어지는데, SlimPipe는 균일한 시퀀스 슬라이싱과 1F1B 스케줄을 사용하여 이러한 문제를 해결합니다. 여러 마이크로 배치의 누적된 활성화를 하나의 마이크로 배치로 줄이고, 이를 여러 슬라이스로 나누어 처리하며, 작업 부하 재분배 기법을 통해 부하 불균형을 해결합니다. 실험 결과, SlimPipe는 메모리 오버헤드를 거의 제거하고 파이프라인 버블을 최소화하여 Llama 70B 모델에서 기존 방법 대비 최대 1.57배의 모델 FLOPs 활용도(MFU) 향상을 보였으며, 2048K 문맥 길이에서도 256개의 NVIDIA Hopper 80GB GPU 상에서 45% 이상의 활용도를 유지했습니다.

시사점, 한계점

시사점:
긴 문맥 시나리오에서 LLM 훈련의 효율성을 획기적으로 향상시킬 수 있는 새로운 파이프라인 병렬 처리 방법을 제시합니다.
메모리 오버헤드와 파이프라인 버블을 동시에 최소화하여 기존 방법의 한계를 극복합니다.
다양한 모델 아키텍처, 문맥 창 크기, SlimPipe 설정에서 효과를 검증했습니다.
대규모 GPU 클러스터를 활용한 LLM 훈련의 실용성을 높입니다.
한계점:
SlimPipe의 작업 부하 재분배 기법의 최적화 정도에 따라 성능이 영향을 받을 수 있습니다.
다양한 모델과 하드웨어 환경에 대한 추가적인 실험이 필요합니다.
제안된 1F1B 스케줄 외 다른 스케줄에 대한 성능 비교 분석이 부족할 수 있습니다.
👍