본 논문은 대규모 언어 모델(LLM)과의 상호작용에서 질문에 성공적으로 답변을 얻기 위해 다회차 상호작용이 언제 필요한지 연구합니다. LLM을 신탁처럼 사용하는 현상을 고려하여, 질문의 불완전성과 모호성을 상호작용 과정에서 교환되는 메시지로부터 추론할 수 있는 특성으로 정의하는 신경 기호 프레임워크를 제시합니다. 벤치마크 문제를 통해 질문의 불완전성 또는 모호성이 답변의 정확성에 영향을 미치는지 분석하고, 불완전성이나 모호성이 높은 데이터셋에서는 다회차 상호작용이 필요하며, 상호작용 길이 증가가 불완전성 또는 모호성을 감소시킨다는 결과를 보여줍니다. 또한, 불완전성과 모호성 측정이 LLM 기반 질의응답 문제에서 상호작용을 특징짓는 데 유용한 도구임을 시사합니다.