Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field

Created by
  • Haebom

저자

Tanay Aggarwal, Angelo Salatino, Francesco Osborne, Enrico Motta

개요

본 논문은 대규모 언어 모델(LLM)을 이용하여 연구 주제 간의 의미 관계를 자동으로 식별하는 방법을 분석합니다. IEEE Thesaurus를 기반으로 한 골드 스탠다드를 사용하여 '상위', '하위', '동일', '기타' 네 가지 관계 유형을 식별하는 과제에 대해 17개의 LLM을 평가했습니다. 모델의 크기, 접근성(오픈 소스 vs. 독점), 모델 유형(전체 vs. 양자화) 등을 고려하여 평가했으며, 네 가지 제로샷 추론 전략도 평가했습니다. Mixtral-8x7B, Dolphin-Mistral-7B, Claude 3 Sonnet 등 여러 모델이 뛰어난 성능(F1-score 0.847, 0.920, 0.967)을 보였으며, 프롬프트 엔지니어링을 통해 최적화된 소규모 양자화 모델이 대규모 독점 모델과 비슷한 성능을 보이는 것을 확인했습니다. 이는 연구 주제 온톨로지 생성 자동화에 대한 가능성을 보여줍니다.

시사점, 한계점

시사점:
대규모 언어 모델이 연구 주제 온톨로지 생성 자동화에 효과적으로 활용될 수 있음을 보여줌.
프롬프트 엔지니어링을 통해 소규모 양자화 모델의 성능을 크게 향상시킬 수 있음을 제시.
계산 자원이 제한적인 환경에서도 우수한 성능을 달성할 수 있는 가능성을 확인.
한계점:
평가에 사용된 골드 스탠다드가 IEEE Thesaurus에 기반한 것으로, 다른 도메인이나 더 복잡한 관계 유형에 대한 일반화 가능성은 추가 연구가 필요함.
평가된 LLM의 종류가 제한적일 수 있으며, 더 다양한 모델에 대한 추가 연구가 필요함.
실제 연구 주제 온톨로지 생성에 적용하기 위한 추가적인 연구 및 개발이 필요함.
👍