본 논문은 언어 모델이 문맥과 사전 지식 중 어느 정도를 활용할지 결정하는 메커니즘을 탐구한다. 문맥 민감도를 제어하는 "knob"을 찾기 위해, 모델이 문맥 또는 사전 지식을 사용하도록 지시하는 제어 가능한 문맥 민감도 과제를 설계하였다. Llama-3.1, Mistral-v0.3, Gemma-2 모델을 이 과제로 미세 조정한 결과, 높은 정확도(85-95%)로 문맥 및 사전 지식에 따라 정답을 생성하는 것을 확인하였다. 선형 시간 알고리즘을 사용하여 문맥 민감도에 중요한 계층을 분석하고, 각 모델에서 문맥 또는 사전 지식을 따르는지를 나타내는 1차원 부분 공간을 식별하였다. 흥미롭게도, 이 부분 공간은 미세 조정된 모델뿐만 아니라 미세 조정되지 않은 instruction-tuned 및 기본 모델에서도 효과적인 knob으로 작용하는 것을 확인하였다. 마지막으로, 모델의 성능과 이 부분 공간에서 문맥 일치 응답과 문맥 무시 응답의 분리 정도 사이에 강한 상관관계가 있음을 보였다. 이는 모델이 문맥과 사전 지식 중 선택하는 방식을 단일 부분 공간이 조절한다는 것을 시사하며, 이러한 행동을 제어하는 간단한 기본 메커니즘이 존재할 가능성을 제시한다.