HyperCLOVA X THINK est le premier modèle linguistique à grande échelle basé sur l'inférence, pré-entraîné sur environ 6 000 milliards de jetons coréens et anglais. Il est implémenté en ajoutant des données coréennes synthétiques cibles et en étendant le transformateur Peri-LN avec μP en tenant compte de l'équilibre calcul-mémoire. Il est pré-entraîné avec un programme en trois étapes qui étend la fenêtre contextuelle à 128 000 jetons et subit un réglage fin supervisé par apprentissage par renforcement à partir de récompenses vérifiables. Il prend en charge les modes de preuves détaillées et de réponses concises et affiche des performances compétitives par rapport à des modèles de taille similaire sur des benchmarks centrés sur le coréen tels que KMMLU, CSAT, KoBALT-700, HAERAE-1.0 et KoBigBench. Il maintient également une bonne cohérence bilingue et une bonne qualité de traduction, et la variante avec vision augmentée atteint des performances égales ou supérieures à celles de GPT-4.1 sur le benchmark STEM KCSAT. Il y parvient avec beaucoup moins de calculs de formation que les modèles de taille similaire existants, et présente également des techniques d'élagage et de distillation pour un modèle de base open source et adapté aux entreprises.