뇌의 학습은 국소적이고 비지도학습(Hebbian) 방식임을 기반으로 효과적인 인간 언어 모델의 기초를 유도한 논문입니다. 이 모델은 두 부분으로 구성됩니다. 첫째, 텍스트에서 단어를 토큰화하는 것을 학습하는 뉴런 계층입니다. 둘째, 학습된 의미 없는 토큰화 패턴을 의미 있는 토큰(임베딩)으로 묶는 추가적인 뉴런입니다. 이 모델은 망각 없이 지속적인 병렬 학습을 허용하며, 강력한 토큰화 기능을 수행하는 르네상스 그룹(renormalization group)을 사용합니다. 이를 통해 중복성을 활용하여 항상 기저 집합(예: 알파벳)으로 분해 가능한 토큰을 생성하고, 여러 언어에서 학습된 특징을 혼합할 수 있습니다. 이 모델의 구조는 데이터 없이도 자연어 형태론을 학습할 수 있게 합니다. 이 모델에 의해 생성된 언어 데이터는 실제 언어에서 관찰되는 단어 형성 패턴의 정확한 분포를 예측하며, 미시적으로 인간의 언어가 단어로 나뉘는 이유를 보여줍니다. 이 모델은 언어와 인간의 창의성의 미시적 기원을 이해하기 위한 기초를 제공합니다.