본 논문은 기존 대화 상태 추적(DST) 방법들이 사전 정의된 온톨로지와 골드 도메인 레이블에 의존하여 새로운 슬롯 값에 적응하는 데 어려움을 겪는다는 점을 지적합니다. 대규모 언어 모델(LLM) 기반 시스템은 제로샷 DST 성능을 보여주지만, 많은 계산 자원을 필요로 하거나 기존의 완전히 훈련된 시스템보다 성능이 떨어지는 한계가 있습니다. 이를 해결하기 위해 본 논문은 도메인 분류와 DST를 단일 파이프라인으로 통합하는 제로샷, 개방형 어휘 시스템을 제안합니다. 능력이 부족한 모델에는 DST를 질의응답 과제로 재구성하고, 더 적응력 있는 모델에는 자기 개선 프롬프트를 사용합니다. 온톨로지에 정의된 고정된 슬롯 값에 의존하지 않아 동적으로 적응할 수 있습니다. Multi-WOZ 2.1과 같은 데이터셋에서 기존 최첨단(SOTA) 방법보다 최대 20% 향상된 Joint Goal Accuracy (JGA)를 달성하고, LLM API 요청을 최대 90% 줄였습니다.