[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

KROMA: Ontology Matching with Knowledge Retrieval and Large Language Models

Created by
  • Haebom

저자

Lam Nguyen, Erika Barcelos, Roger French, Yinghui Wu

개요

KROMA는 대규모 언어 모델(LLM)을 검색 증강 생성(RAG) 파이프라인 내에서 활용하여 온톨로지 매칭(OM) 작업의 의미적 맥락을 구조적, 어휘적, 정의적 지식으로 동적으로 풍부하게 하는 새로운 OM 프레임워크입니다. 기존 OM 시스템의 제한된 적응성 문제를 해결하기 위해 고안되었으며, 성능과 효율성을 높이기 위해 유사성 기반 개념 매칭과 경량 온톨로지 개선 단계를 통합하여 후보 개념을 제거하고 LLM 호출로 인한 통신 오버헤드를 크게 줄입니다. 여러 벤치마크 데이터셋에 대한 실험을 통해 지식 검색과 맥락이 풍부한 LLM을 통합하면 기존 OM 시스템과 최첨단 LLM 기반 접근 방식을 능가하는 온톨로지 매칭 성능을 크게 향상시키면서 통신 오버헤드는 비슷하게 유지함을 보여줍니다. 본 연구는 대규모 온톨로지 매칭을 위한 제안된 최적화 기법(표적 지식 검색, 프롬프트 풍부화 및 온톨로지 개선)의 실현 가능성과 이점을 강조합니다.

시사점, 한계점

시사점:
LLM과 RAG 파이프라인을 활용하여 온톨로지 매칭의 정확도와 효율성을 크게 향상시킬 수 있음을 보여줍니다.
표적 지식 검색, 프롬프트 풍부화, 온톨로지 개선과 같은 최적화 기법의 효과를 실증적으로 확인합니다.
기존 OM 시스템과 최첨단 LLM 기반 접근 방식을 능가하는 성능을 달성합니다.
대규모 온톨로지 매칭에 대한 실용적인 해결책을 제시합니다.
한계점:
특정 LLM과 벤치마크 데이터셋에 대한 결과이므로 일반화 가능성에 대한 추가 연구가 필요합니다.
LLM의 성능에 의존적이며, LLM의 한계가 KROMA의 성능에도 영향을 미칠 수 있습니다.
경량 온톨로지 개선 단계의 효율성은 데이터셋의 특성에 따라 달라질 수 있습니다.
LLM 호출 비용 및 지식베이스 구축 및 유지보수에 대한 비용 고려가 필요합니다.
👍