HyperCLOVA X THINK는 약 6조 개의 한국어 및 영어 토큰으로 사전 훈련된 최초의 추론 중심 대규모 언어 모델입니다. 목표 합성 한국어 데이터를 추가하고, 계산-메모리 균형을 고려한 Peri-LN Transformer를 μP로 확장하여 구현되었습니다. 128K 토큰까지 문맥 창을 확장하는 3단계 커리큘럼으로 사전 훈련되었고, 검증 가능한 보상으로부터의 강화 학습을 통한 감독식 미세 조정을 거쳤습니다. 상세한 근거와 간결한 답변 모드를 모두 지원하며, KMMLU, CSAT, KoBALT-700, HAERAE-1.0, KoBigBench 등 한국어 중심 벤치마크에서 유사한 크기의 모델에 비해 경쟁력 있는 성능을 보여줍니다. 또한, 양질의 이중 언어 일관성과 번역 품질을 유지하며, 비전 증강 변형은 KCSAT STEM 벤치마크에서 GPT-4.1과 동등하거나 그 이상의 성능을 달성합니다. 기존 유사 규모 모델보다 훨씬 적은 훈련 연산량으로 이러한 성과를 달성했으며, 오픈소스 및 비즈니스 친화적인 기반 모델을 위한 가지치기 및 증류 기술도 제시합니다.