Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Leveraging LLMs for Utility-Focused Annotation: Reducing Manual Effort for Retrieval and RAG

Created by
  • Haebom

저자

Hengran Zhang, Minghao Tang, Keping Bi, Jiafeng Guo, Shihao Liu, Daiting Shi, Dawei Yin, Xueqi Cheng

개요

본 논문은 대규모 언어 모델(LLM)이 생성한 주석을 사용하여 검색 모델을 훈련하는 것을 연구합니다. 기존 검색 모델 훈련 및 평가에는 많은 비용이 드는 사람이 직접 라벨링한 질의-문서 관련성 주석이 필요하지만, 본 논문에서는 LLM이 생성한 주석을 활용하여 이러한 비용을 줄이고자 합니다. 기존 연구는 LLM의 성능을 다운스트림 작업에서 문서 라벨로 사용하거나, LLM이 RAG 참조로 유용한 문서를 선택하도록 프롬프트하는 방식을 사용했지만, 각각 고비용 또는 특정 작업에 국한되는 한계가 있었습니다. 본 논문에서는 LLM의 유용성 판단을 활용하여 대규모 검색 데이터를 주석화하고, LLM이 생성한 낮은 품질의 양성 데이터의 영향을 줄이기 위해 새로운 손실 함수인 Disj-InfoNCE를 설계합니다. 실험 결과, 유용성 중심 주석으로 훈련된 검색 모델은 특히 도메인 외 설정에서 사람이 주석한 데이터로 훈련된 모델보다 우수한 일반화 성능을 보였으며, 도메인 내 설정에서는 20%의 사람이 주석한 데이터만 추가해도 사람이 완전히 주석한 데이터로 훈련된 모델과 동등한 성능을 달성할 수 있음을 보였습니다.

시사점, 한계점

시사점:
LLM을 활용한 유용성 중심 주석이 도메인 외 설정에서 검색 모델의 일반화 성능을 향상시킨다는 것을 보여줌.
소량의 사람이 주석한 데이터와 결합하여 LLM 주석을 활용함으로써 대규모 검색 모델 훈련 비용을 효과적으로 절감할 수 있음.
Disj-InfoNCE 손실 함수를 통해 LLM이 생성한 낮은 품질의 양성 데이터 문제를 완화할 수 있음.
한계점:
도메인 내 설정에서는 LLM 주석만으로는 사람이 주석한 데이터를 완전히 대체할 수 없음.
LLM 주석의 품질에 대한 추가적인 연구가 필요함.
사용된 LLM의 종류 및 크기에 따른 성능 차이에 대한 분석이 부족함.
👍