Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Beyond Next Token Prediction: Patch-Level Training for Large Language Models

Created by
  • Haebom

저자

Chenze Shao, Fandong Meng, Jie Zhou

개요

본 논문은 대규모 언어 모델(LLM)의 막대한 훈련 비용 문제를 해결하기 위해 패치 단위 훈련(patch-level training) 기법을 제시합니다. 여러 토큰을 하나의 정보 밀도가 높은 단위인 '패치'로 묶어 훈련의 기본 단위로 사용하는 방식입니다. 이를 통해 LLM은 더 짧은 패치 시퀀스를 처리하여 훈련 비용을 크게 줄일 수 있습니다. 일부 데이터는 토큰 단위 훈련을 통해 추론 모드와의 정합성을 유지합니다. 다양한 크기(3억 7천만~27억 파라미터)의 모델 실험 결과, 패치 단위 훈련은 훈련 비용을 최대 0.5배까지 절감하면서 성능 저하 없이 LLM을 훈련할 수 있음을 보여줍니다. 소스 코드는 공개되어 있습니다.

시사점, 한계점

시사점:
LLM 훈련 비용을 획기적으로 절감할 수 있는 새로운 방법 제시.
패치 단위 훈련을 통해 성능 저하 없이 훈련 비용을 50%까지 줄일 수 있음을 실험적으로 증명.
다양한 크기의 LLM에 적용 가능성을 확인.
소스 코드 공개를 통한 재현성 및 확장성 확보.
한계점:
제시된 방법이 모든 종류의 LLM 또는 모든 데이터셋에 동일한 효과를 보이는지는 추가 연구가 필요.
패치 크기 및 토큰-패치 전환 방식 등 하이퍼파라미터 최적화에 대한 추가 연구 필요.
다양한 데이터셋에 대한 실험 결과가 제한적일 수 있음.
토큰 수준의 미세 조정 단계가 여전히 필요하다는 점이 비용 절감의 절대적인 효율성을 제한할 수 있음.
👍