본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 프레임워크인 LatentSeek을 제안합니다. 기존의 매개변수 업데이트 기반의 방법들과 달리, LatentSeek은 테스트 시간에 모델의 잠재 공간 내에서 인스턴스 수준 적응(TTIA)을 통해 추론 성능을 향상시킵니다. 정책 경사를 활용하여 자체 생성된 보상 신호에 따라 잠재 표현을 반복적으로 업데이트하며, GSM8K, MATH-500, AIME2024 등 다양한 추론 벤치마크에서 기존 방법들보다 우수한 성능을 보입니다. 경량화, 확장성, 효율성을 갖춘 LatentSeek은 LLM의 추론 능력 향상에 효과적인 해결책으로 제시됩니다.