Brian Chmiel, Maxim Fishman, Ron Banner, Daniel Soudry
개요
본 논문은 최초로 가중치, 활성화 함수, 기울기 모두에 주로 4비트 부동소수점(FP4) 정밀도를 사용하여 2000억 토큰까지의 데이터셋을 대상으로 대규모 언어 모델(LLM)의 완전 양자화 훈련(FQT)을 시연합니다. 블록 크기, 스케일링 형식, 반올림 방법 등 FP4에 대한 주요 설계 선택 사항을 광범위하게 조사하여 16개의 FP4 값(E2M1) 블록이 E4M3으로 표현된 스케일을 공유하는 NVFP4 형식이 최적의 결과를 제공함을 보여줍니다. 역전파 및 업데이트 단계에는 확률적 반올림을, 순전파에는 가장 가까운 값으로 반올림하여 안정성을 높였습니다. 또한, 기울기 노름이 양자화 잡음의 약 $\sqrt{3}$ 배 이하로 떨어지면 양자화 훈련의 효과가 감소하는 이론적 및 실험적 임계값을 확인했습니다. 이러한 통찰력을 활용하여 256개의 Intel Gaudi2 가속기를 사용하여 70억 매개변수 모델을 성공적으로 훈련했습니다. 결과적으로 FP4로 훈련된 모델은 표준 BF16 기준과 비슷한 하위 작업 성능을 달성하여 FP4 훈련이 대규모 LLM 훈련에 대한 실용적이고 매우 효율적인 접근 방식임을 확인했습니다. 레퍼런스 구현은 https://github.com/Anonymous1252022/fp4-all-the-way 에서 제공됩니다.