本文提出了一种集成外部知识资源(特别是知识图谱 (KG))的方法,以解决知识密集型环境中大规模语言模型 (LLM) 的事实不准确性问题。我们专注于处理复杂多跳查询的基于知识的问答系统 (KBQA),并解决两个关键挑战:保持一致的推理路径和防止过早放弃关键的多跳连接。为此,我们引入了基于问题的 KBQA 框架 iQUEST。它以迭代方式将复杂查询分解为更简单的子问题,并在每个推理步骤中集成图神经网络 (GNN),以利用两跳邻居信息。iQUEST 在四个基准数据集和四个 LLM 上均展现出持续的性能提升。