본 논문은 대규모 언어 모델(LLM)이 반복적인 결정론적 예측 작업에서 수행하는 성능을 조사하고, 출력 길이에 따른 시퀀스 정확도 변화를 연구한다. 이러한 작업은 주어진 규칙에 따라 문자 대체, 정수 덧셈, 다체 양자 역학에서의 문자열 연산자 곱셈 등과 같이 동일한 작업을 n번 반복하는 것을 포함한다. 단순 반복 알고리즘을 통해 작업을 수행하는 경우 성공률은 시퀀스 길이에 따라 지수적으로 감소해야 한다. 그러나 최첨단 LLM에 대한 실험 결과, 특징적인 길이 척도를 넘어서면 급격한 이중 지수적 감소가 나타나며, 이는 안정적인 생성에서 불안정한 생성으로의 전환을 나타내는 정확도 절벽을 형성한다. 이는 모델이 각 작업을 독립적으로 실행하지 못함을 시사한다. 이 현상을 설명하기 위해, 본 논문은 프롬프트의 외부 조건화와 생성된 토큰 간의 내부 간섭 간의 경쟁을 포착하는 통계 물리학에서 영감을 얻은 모델을 제안한다. 제안된 모델은 관찰된 교차점을 정량적으로 재현하고, 주의력 유도 간섭과 시퀀스 수준 실패 간의 해석 가능한 연결을 제공한다. 여러 모델과 작업에 걸쳐 경험적 결과에 모델을 적용하면 각 모델 작업 쌍에 대한 고유 오류율 및 오류 누적 인수를 특징짓는 효과적인 매개변수가 생성되며, 이는 대규모 언어 모델에서 결정론적 정확도의 한계를 이해하기 위한 원칙적인 프레임워크를 제공한다.