본 논문은 스키마 매칭 과정에서 발생하는 불확실성을 줄이기 위해 대규모 언어 모델(LLM) 기반의 정교한 대응 관계 검증 방법을 제시합니다. 기존의 다양한 스키마 매칭 알고리즘과 하이퍼파라미터 튜닝으로 인해 생성되는 여러 결과에 동일한 확률을 부여하는 대신, LLM을 활용하여 대응 관계를 검증하고 확률 분포를 업데이트하는 반복적인 과정을 통해 불확실성을 감소시킵니다. 최적의 대응 관계 집합을 선택하는 문제가 NP-hard 문제임을 밝히고, $(1-1/e)$-근사 알고리즘을 제안하여 계산 효율성을 높였습니다. GPT-4를 활용한 두 가지 프롬프트 템플릿을 개발하여 기존 벤치마크 데이터셋에서 최첨단 성능을 달성했습니다. 실험 결과, 제안된 방법의 효과와 강건성을 입증했습니다.