Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fine-Tuning LLMs for Report Summarization: Analysis on Supervised and Unsupervised Data

Created by
  • Haebom
Category
Empty

저자

Swati Rallapalli, Shannon Gallagher, Andrew O. Mellinger, Jasmine Ratchford, Anusha Sinha, Tyler Brooks, William R. Nichols, Nick Winski, Bryan Brown

개요

본 논문은 정부 문서, 뉴스, 정보 보고서 등의 보고서 요약을 위한 대규모 언어 모델(LLM)의 미세 조정 효과를 연구합니다. 정부 문서와 같이 정답 요약이 없는 경우와 제한된 컴퓨팅 자원(1~2개의 A100 GPU)으로 인해 현장에서 계산을 수행해야 하는 어려움을 가진 특정 응용 환경에 초점을 맞춥니다. 두 가지 미세 조정 방법을 통해 현장에서의 LLM 미세 조정 가능성과 요약 품질 평가 지표를 확인하고, 미세 조정이 요약 품질 향상 및 잘못된 요약 감소에 기여하는 경향을 발견했습니다.

시사점, 한계점

시사점: 제한된 자원 환경에서도 LLM 미세 조정을 통해 보고서 요약의 질을 향상시킬 수 있음을 보여줍니다. 미세 조정은 요약 품질 개선뿐 아니라 잘못된 요약 발생 감소에도 효과적임을 확인했습니다. 현실적인 제약 조건 하에서 LLM 활용 가능성을 제시합니다.
한계점: 정답 요약이 없는 경우에 대한 평가 지표의 한계가 존재할 수 있습니다. 사용된 GPU의 수가 제한적이어서 다른 컴퓨팅 환경에서는 결과가 다를 수 있습니다. 실험에 사용된 데이터셋의 특성에 따라 일반화 가능성에 한계가 있을 수 있습니다.
👍