Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Projection to Prediction: Beyond Logits for Scalable Language Models

Created by
  • Haebom
Category
Empty

저자

Jianbing Dong, Jianbin Chang

개요

대규모 언어 모델(LLM) 훈련 시, 기존의 출력 레이어 파이프라인(hidden states를 linear transformation을 통해 vocabulary logits으로 투영 후, cross-entropy loss 계산)이 메모리 사용량 및 대역폭 소비가 크다는 문제점을 지적합니다. 본 연구는 출력 투영과 손실 예측을 단일 연산으로 통합하여 logits을 명시적으로 생성하지 않음으로써 메모리 사용량 및 대역폭 압박을 줄이는 새로운 접근 방식을 제안합니다. 제안된 방법은 LLM 훈련 실험을 통해 메모리 절감 및 속도 향상을 보였으며, 정확도를 유지하면서 큰 배치 크기와 긴 시퀀스 처리를 가능하게 합니다.

시사점, 한계점

시사점:
출력 투영과 손실 예측의 통합을 통해 LLM 훈련의 효율성을 개선.
메모리 사용량 감소 및 속도 향상을 통해 더 큰 모델 및 데이터 훈련 가능성 제시.
projection과 prediction 사이의 경계를 재고하는 시스템 최적화의 중요성 강조.
한계점:
해당 논문에서 구체적인 한계점은 제시되지 않음. (논문 요약 내용만으로는 파악 불가)
👍