仅使用解码器的语言模型(例如 GPT 和 LLaMA)通常在最后一层执行解码。本研究提出了一种分层解码器架构,利用人类的分层推理能力,同时解码不同层的文本。为了将预训练语言模型适配到这种分层解码器配置,我们将语言中心从最后一层复制到选定的中间层,并使用不同的任务输入对其进行微调。实验表明,这些选择性中间层可以生成有意义且合理的内容,并且这种分层解码器范式在多个任务上实现了最佳性能,包括分层文本分类、基于分类的生成和分层文本生成。HdLM 在 WoS、DBpedia、ESconv、EmpatheticDialogues 和多项认知测试中均优于所有基准模型。此外,我们对该方法的收敛性和计算节省进行了全面的理论分析。本研究展示了从零开始训练的广义分层恒河猴机器学习模型的潜力。