本文探讨了如何生成多样化的后续问题,以弥补基于本地模型的小型对话智能体中的信息缺口。为此,我们开发了一个基于信息缺口的知识提炼流程,其中教师法学硕士 (LLM) 生成全面的答案,将其与初始答案进行比较,识别信息缺口,并制定后续问题来填补。利用该流程,我们将现有的 FollowupQG 数据集扩展了 10 倍,并在扩展后的数据集上对一个小型学生模型进行了微调,以提炼教师的知识。在选定的师生模型对上进行的实验结果表明,与在原始数据集上训练的变体模型相比,微调后的学生模型显著提高了信息质量和多样性。这表明,该流程反映了人类信息搜索的认知过程,可以提供一条从最先进的 LLM 到小型模型的高效提炼通道,从而能够在资源受限的对话系统中生成更加多样化、信息丰富的后续问题。