Sign In

Prompt-Matcher: Leveraging Large Models to Reduce Uncertainty in Schema Matching Results

Created by
  • Haebom
Category
Empty

저자

Longyu Feng, Huahang Li, Chen Jason Zhang

개요

본 논문은 스키마 매칭 과정에서 발생하는 불확실성을 줄이기 위해 대규모 언어 모델(LLM) 기반의 정교한 대응 관계 검증 방법을 제시합니다. 기존의 다양한 스키마 매칭 알고리즘과 하이퍼파라미터 튜닝으로 인해 생성되는 여러 결과에 동일한 확률을 부여하는 대신, LLM을 활용하여 대응 관계를 검증하고 확률 분포를 업데이트하는 반복적인 과정을 통해 불확실성을 감소시킵니다. 최적의 대응 관계 집합을 선택하는 문제가 NP-hard 문제임을 밝히고, $(1-1/e)$-근사 알고리즘을 제안하여 계산 효율성을 높였습니다. GPT-4를 활용한 두 가지 프롬프트 템플릿을 개발하여 기존 벤치마크 데이터셋에서 최첨단 성능을 달성했습니다. 실험 결과, 제안된 방법의 효과와 강건성을 입증했습니다.

시사점, 한계점

시사점:
LLM을 활용하여 스키마 매칭의 불확실성을 효과적으로 줄이는 새로운 방법 제시.
NP-hard 문제에 대한 효율적인 근사 알고리즘 개발.
GPT-4 기반의 새로운 프롬프트 템플릿을 통해 스키마 매칭 성능 향상.
실험을 통해 제안된 방법의 우수성과 강건성 검증.
한계점:
제안된 방법의 성능은 LLM(GPT-4)의 성능에 의존적일 수 있음.
새로운 벤치마크 데이터셋에 대한 일반화 성능 검증 필요.
$(1-1/e)$-근사 알고리즘의 근사 오차에 대한 추가적인 분석 필요.
실제 대규모 데이터셋에 적용 시 확장성 및 효율성에 대한 추가적인 연구 필요.
👍