본 논문은 설명 가능성, 신뢰성, 적응성, 확장성 측면에서 한계를 보이는 대규모 언어 모델(LLM)의 문제점을 해결하기 위해 모듈러 머신러닝(MML) 패러다임을 제시한다. MML은 LLM의 복잡한 구조를 모듈러 표현, 모듈러 모델, 모듈러 추론의 세 가지 상호 의존적인 구성 요소로 분해하여 LLM의 내부 작동 메커니즘을 명확히 하고, 유연하고 작업에 적응적인 모델 설계를 가능하게 하며, 해석 가능하고 논리 중심적인 의사결정 과정을 가능하게 한다. 논문에서는 분리된 표현 학습, 신경 구조 검색, 신경 기호 학습과 같은 고급 기술을 활용한 MML 기반 LLM의 실행 가능한 구현 방안을 제시하고, 지속적인 신경 및 불연속 기호 프로세스 통합, 공동 최적화, 계산 확장성과 같은 주요 과제와 향후 연구 방향을 제시한다. 궁극적으로 MML과 LLM의 통합은 통계적(심층) 학습과 형식적(논리적) 추론 간의 격차를 해소하여 다양한 실제 응용 분야에서 강력하고, 적응력이 뛰어나며, 신뢰할 수 있는 AI 시스템을 위한 길을 열어줄 것으로 기대한다.