본 논문은 대규모 언어 모델(LLM)의 훈련 과정에서 나타나는 급격한 돌발적 행동, 즉 상전이 현상에 대한 통합적 분석을 제시한다. LLM과 인간 뇌의 유사성, LLM의 내부 상태, 그리고 하위 작업 성능이라는 세 가지 관점을 종합적으로 검토하여, 훈련 데이터와 아키텍처가 다른 여러 LLM에서 공통적으로 나타나는 세 가지 상전이를 밝혀냈다. 이는 (1) LLM이 작업 지시를 따르기 시작하면서 전체 뇌 활동과의 정렬이 증가하는 '뇌 정렬 및 지시 따르기', (2) 하위 작업 정확도가 일시적으로 정체되는 동안 LLM이 뇌 활동과의 차이를 보이는 '뇌 분리 및 정체', 그리고 (3) LLM이 하위 작업을 해결할 수 있게 되면서 뇌 활동과의 재정렬이 발생하는 '뇌 재정렬 및 통합' 단계이다. 이를 통해 LLM 상전이의 기저 메커니즘을 밝히고, AI와 신경과학을 융합하는 새로운 연구 방향을 제시한다.