본 논문은 인간이 낱말의 순서가 뒤섞여도 의미를 이해하는 Typoglycemia 현상과 대규모 언어 모델(LLM)의 유사한 능력을 분석한다. 새로운 지표인 SemRecScore를 제시하여 의미 재구성 정도를 측정하고, LLM의 의미 재구성에 단어 형태와 문맥 정보가 미치는 영향을 실험적으로 분석한다. 그 결과, LLM은 주로 단어 형태에 의존하여 의미를 재구성하며, 특정 어텐션 헤드를 이용하여 단어 형태 정보를 추출하고 처리하는 것을 발견했다. 이는 인간의 유연한 전략과 대조적으로, LLM의 고정된 어텐션 패턴을 보여준다.