본 논문은 대규모 언어 모델(LLM)의 내재된 저차원 구조를 이해하는 데 초점을 맞추고 있습니다. 모델에 구애받지 않는 방식으로 순차적 확률 모델로서 LLM의 저차원 구조를 연구하는 새로운 접근 방식을 제시합니다. 다양한 최신 LLM이 저계수 구조를 보인다는 것을 실험적으로 입증하며, 특히 다양한 프롬프트와 응답에 대한 모델의 로짓으로 구성된 행렬이 낮은 근사 계수를 갖는다는 것을 확인했습니다. 이러한 저계수 구조를 활용하여 생성을 수행할 수 있음을 보였으며, 관련 없는 프롬프트나 심지어 무의미한 프롬프트의 모델 출력을 선형 조합하여 대상 프롬프트에 대한 응답을 생성할 수 있습니다. 또한, 위에서 논의된 LLM의 근사 계수를 연구하는 것이 단순하고 보편적인 추상화를 제공하며, 그 이론적 예측이 실험과 일치한다는 것을 관찰했습니다. 마지막으로, 이 추상화의 표현력과 증명 가능한 학습 보장을 분석했습니다.