本文提出了模块化机器学习 (MML) 范式,以解决大规模语言模型 (LLM) 在可解释性、可靠性、适应性和可扩展性方面的局限性。MML 将 LLM 的复杂结构分解为三个相互依赖的组件:模块化表示、模块化模型和模块化推理。这种分解阐明了 LLM 的内部工作原理,实现了灵活且任务自适应的模型设计,并促进了可解释且逻辑驱动的决策过程。本文提出了一种基于 MML 的 LLM 的可行实现方案,该方案利用了不相交表示学习、神经架构搜索和神经符号学习等先进技术。此外,本文还探讨了关键挑战,例如连续神经过程和离散符号过程的集成、联合优化和计算可扩展性,并展望了未来的研究方向。最终,MML 和 LLM 的整合有望弥合统计(深度)学习和形式(逻辑)推理之间的差距,为各种实际应用中强大、适应性强、可靠的人工智能系统铺平道路。