본 논문은 테스트 시간에 언어 모델의 성능을 향상시키는 매개변수 효율적인 새로운 방법인 SLOT(Sample-specific Language Model Optimization at Test-time)을 제안합니다. 기존의 대규모 언어 모델(LLM)은 복잡한 지시사항을 처리하는 데 어려움을 겪는데, SLOT은 테스트 시간에 경량의 샘플 특정 매개변수 벡터를 업데이트하기 위해 몇 가지 최적화 단계를 수행하여 이 문제를 해결합니다. 이 벡터는 출력 헤드 앞의 최종 은닉 계층에 추가되며, 샘플별 최적화 중에 마지막 계층 특징을 캐싱함으로써 효율적인 적응을 가능하게 합니다. 입력 프롬프트에 대한 교차 엔트로피 손실을 최소화함으로써, SLOT은 모델이 각 지시사항에 더 잘 맞춰 따르도록 합니다. 실험 결과, 여러 벤치마크와 LLM에서 비교 모델보다 우수한 성능을 보였습니다. 예를 들어, Qwen2.5-7B에 SLOT을 적용하면 GSM8K의 정확도가 57.54%에서 66.19%로 8.6% 향상되었고, DeepSeek-R1-Distill-Llama-70B에 SLOT을 적용하면 GPQA에서 70B 수준 모델 중 최고 정확도인 68.69%를 달성했습니다. 코드는 https://github.com/maple-research-lab/SLOT 에서 이용 가능합니다.