HyperCLOVA X THINKは、約6兆の高品質の韓国語と英語のトークンとターゲット合成韓国語データを使用して事前に訓練された最初の推論中心の大規模言語モデルです。 μPに拡張された計算メモリバランス型Peri-LN Transformerで実装され、コンテキストウィンドウを128Kトークンに拡張する3段階カリキュラムで事前訓練され、検証可能な補償から強化学習を用いた指導式微調整を通じて後続訓練されました。詳細な根拠と簡潔な回答モードの両方をサポートし、KMMLU、CSAT、KoBALT-700、HAERAE-1.0、KoBigBenchなどの韓国語中心のベンチマークで同様のサイズのモデルと比較して競争力のあるパフォーマンスを提供しながら、強力なバイリンガル一貫性と翻訳品質を維持します。さらに、ビジョンエンハンスメント変形は、KCSAT STEMベンチマークでGPT-4.1と同等またはそれ以上の性能を達成します。また、オープンソースおよびビジネスに優しい基盤モデルのためにHyperCLOVA X THINKに適用される剪定および蒸留技術も提示します。これらの機能により、HyperCLOVA X THINKは、韓国AI革新のための強力な基盤であり、世界中の研究コミュニティに貴重なリソースとして位置づけられます。