본 논문은 인간 지능의 핵심 속성으로 여겨지는 조합성(compositionality)에 대한 최근 딥러닝 연구 결과를 철학, 인지과학, 신경과학 분야의 독자를 위해 개괄적으로 제시한다. 특히, 대규모 언어 모델(LLM)을 중심으로, 제한된 학습 경험으로부터 무한한 표현 능력을 가능하게 하는 조합적 일반화 능력을 갖추는 두 가지 접근 방식, 즉 (1) 구조적 귀납적 편향과 (2) 메타학습에 대해 논의한다. LLM의 사전 학습 과정이 메타학습의 일종으로 이해될 수 있으며, 이를 통해 DNN이 조합적 일반화 능력을 갖추게 된다는 주장을 제시하고, 이러한 발견이 인간 인지에서의 조합성 연구에 미치는 영향과 향후 연구 방향을 논의한다.