본 논문은 대규모 언어 모델(LLM)의 환각 현상(hallucination) 문제를 해결하기 위해, ReAct(Reasoning and Acting) 프레임워크와 여러 디코딩 전략(DeCoRe, DoLa, CAD)을 결합하는 방법을 제시합니다. ReAct 프레임워크는 외부 지식에 접근하여 LLM의 정확성을 높이는 데 도움을 주지만, 검색된 정보에 충실하지 못하는 문제가 있습니다. 본 연구는 다양한 디코딩 전략을 ReAct 프레임워크와 결합하여 LLM이 검색된 정보에 충실하게 응답하도록 개선하는 데 초점을 맞추고, Multi-Hop Question Answering 과제에서의 성능 향상을 실험적으로 보여줍니다. 특히 HotpotQA에서 F1 score를 19.5에서 32.6으로 향상시킨 결과를 제시합니다.