본 논문은 대규모 언어 모델(LLM)의 지식 부족 문제를 해결하기 위해, 지식 그래프와 같은 외부 지식 기반을 통합하는 새로운 방법인 FiSKE를 제안합니다. 기존의 방법들은 질문 전체를 목표로 삼아 지식 그래프에서 관련 지식을 점진적으로 검색하는 반면, FiSKE는 질문을 세분화된 단서로 분해하고, 적응형 매핑 전략을 통해 단서와 그래프 간의 모호성을 해결합니다. 이는 단서 기반 종료 메커니즘을 통해 LLM에 완벽하게 매핑된 경로를 활용하고 필요시 사고연쇄 추론으로 되돌아가면서 정확성과 효율성의 균형을 맞춥니다. 여러 데이터셋에 대한 실험 결과, FiSKE는 기존 최첨단 방법보다 지식 검색 성능이 우수하고 LLM 호출 횟수도 크게 줄이는 것으로 나타났습니다.