HyperCLOVA X THINK es el primer modelo lingüístico a gran escala basado en inferencias, preentrenado con aproximadamente 6 billones de tokens coreanos e ingleses de alta calidad y datos sintéticos coreanos objetivo. Se implementa con un transformador Peri-LN equilibrado en memoria de cómputo y escalado con μP, preentrenado mediante un programa de tres etapas que amplía la ventana de contexto a 128 000 tokens, y postentrenado mediante un ajuste fino supervisado mediante aprendizaje por refuerzo a partir de recompensas verificables. Admite tanto evidencia detallada como modos de respuesta concisos, y presenta un rendimiento competitivo frente a modelos de tamaño similar en benchmarks centrados en coreano como KMMLU, CSAT, KoBALT-700, HAERAE-1.0 y KoBigBench, manteniendo al mismo tiempo una sólida consistencia bilingüe y una excelente calidad de traducción. Además, la variante con visión aumentada alcanza un rendimiento igual o superior al de GPT-4.1 en el benchmark KCSAT STEM, todo ello con un cómputo de entrenamiento significativamente menor que los modelos existentes de tamaño similar. También presentamos técnicas de poda y destilación que se aplicarán a HyperCLOVA X THINK para crear un modelo base de código abierto y orientado a las empresas. Con estas características, HyperCLOVA X THINK se convertirá en una base sólida para la innovación coreana en IA y un recurso valioso para la comunidad investigadora global.