Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Supervised Fine Tuning of Large Language Models for Domain Specific Knowledge Graph Construction:A Case Study on Hunan's Historical Celebrities

Created by
  • Haebom
Category
Empty

저자

Junjie Hao, Chun Wang, Ying Qiao, Qiuyue Zuo, Qiya Song, Hua Ma, Xieping Gao

개요

본 연구는 湖南 지역의 역사적 인물에 대한 연구를 지원하기 위해 대규모 언어 모델(LLM)을 활용하는 방법을 제시한다. 특히, 도메인 특화 정보 추출을 향상시키기 위해 지도 학습 기반 미세 조정 접근 방식을 제안한다. 湖南 지역의 역사적 인물에 특화된 세분화된 스키마 기반 지침 템플릿을 설계하고, instruction-tuning 데이터셋을 구축하여 도메인 특화 훈련 데이터 부족 문제를 해결한다. Qwen2.5-7B, Qwen3-8B, DeepSeek-R1-Distill-Qwen-7B, Llama-3.1-8B-Instruct 등 4개의 공개 LLM에 파라미터 효율적인 instruction fine-tuning을 적용하고, 추출 성능 평가 기준을 개발했다. 실험 결과, 모든 모델이 미세 조정 후 성능이 향상되었으며, Qwen3-8B가 가장 높은 성능을 보였다.

시사점, 한계점

시사점:
지역 역사 및 문화 분야에서 수직적 LLM 미세 조정의 새로운 통찰력을 제공.
문화 유산 지식 추출 및 지식 그래프 구축에 비용 효율적인 적용 가능성을 제시.
도메인 특화 데이터 부족 문제를 해결하기 위한 지침 기반 미세 조정 접근 방식의 효과 입증.
한계점:
구체적인 한계점 정보가 논문 요약에 명시되어 있지 않음. (추가 연구 필요)
👍