본 논문은 대규모 Transformer 기반 언어 모델의 작동 방식을 이해하기 위한 계층적 프레임워크인 다중 스케일 확률적 생성 이론(MSPGT)을 제시합니다. MSPGT는 텍스트 생성 과정을 글로벌 맥락, 중간 구조, 지역 단어 선택의 세 가지 의미적 스케일로 분해하고, 각 스케일을 Transformer 아키텍처의 특정 레이어 범위와 연결합니다. 레이어 간 상호 정보량 피크와 어텐션 스팬 임계값을 사용하여 스케일 경계를 식별하고, GPT-2, BERT, RoBERTa, T5 네 가지 모델에 적용하여 안정적인 스케일 분할을 확인했습니다. 디코더 전용 모델은 중간 및 글로벌 처리에 더 많은 레이어를 할당하고, 인코더 전용 모델은 지역 특징 추출에 중점을 둡니다. 표적 개입을 통해 지역 스케일 조작은 어휘 다양성에, 중간 스케일 수정은 문장 구조와 길이에, 글로벌 스케일 변화는 담화 일관성에 통계적으로 유의미한 영향을 미침을 보였습니다. 따라서 MSPGT는 대규모 언어 모델을 해석하고, 진단하고, 제어하기 위한 통합적이고 아키텍처에 독립적인 방법을 제공하여 기계적 해석 가능성과 출현 능력 사이의 간극을 메웁니다.