Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

HyperCLOVA X THINK Technical Report

Created by
  • Haebom

저자

NAVER Cloud HyperCLOVA X Team

개요

HyperCLOVA X THINK는 약 6조 개의 한국어 및 영어 토큰으로 사전 훈련된 최초의 추론 중심 대규모 언어 모델입니다. 목표 합성 한국어 데이터를 추가하고, 계산-메모리 균형을 고려한 Peri-LN Transformer를 μP로 확장하여 구현되었습니다. 128K 토큰까지 문맥 창을 확장하는 3단계 커리큘럼으로 사전 훈련되었고, 검증 가능한 보상으로부터의 강화 학습을 통한 감독식 미세 조정을 거쳤습니다. 상세한 근거와 간결한 답변 모드를 모두 지원하며, KMMLU, CSAT, KoBALT-700, HAERAE-1.0, KoBigBench 등 한국어 중심 벤치마크에서 유사한 크기의 모델에 비해 경쟁력 있는 성능을 보여줍니다. 또한, 양질의 이중 언어 일관성과 번역 품질을 유지하며, 비전 증강 변형은 KCSAT STEM 벤치마크에서 GPT-4.1과 동등하거나 그 이상의 성능을 달성합니다. 기존 유사 규모 모델보다 훨씬 적은 훈련 연산량으로 이러한 성과를 달성했으며, 오픈소스 및 비즈니스 친화적인 기반 모델을 위한 가지치기 및 증류 기술도 제시합니다.

시사점, 한계점

시사점:
추론 능력에 초점을 맞춘 대규모 한국어 언어 모델 개발의 성공적인 사례 제시.
기존 모델 대비 낮은 훈련 연산량으로 경쟁력 있는 성능 달성.
한국어 중심 벤치마크에서 우수한 성능.
비전 증강 모델을 통해 STEM 분야에서도 경쟁력 확보.
오픈소스 및 비즈니스 친화적인 모델 개발 계획.
한국어 AI 혁신을 위한 강력한 기반 모델 제공.
한계점:
아직 오픈소스로 공개되지 않음 (향후 계획임).
구체적인 가지치기 및 증류 기술에 대한 상세 내용 부족.
합성 데이터 사용에 대한 자세한 설명 부족.
다른 언어에 대한 성능 평가 부족.
👍