[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Winning Big with Small Models: Knowledge Distillation vs. Self-Training for Reducing Hallucination in Product QA Agents

Created by
  • Haebom

저자

Ashley Lewis, Michael White, Jing Liu, Toshiaki Koike-Akino, Kieran Parsons, Ye Wang

개요

본 논문은 고객 지원 분야에서 대규모 언어 모델(LLM)의 활용을 제한하는 환각(허위 정보 생성) 및 독점 모델의 높은 비용 문제를 해결하기 위해, 검색 기반 질의응답(QA) 파이프라인을 제안하고, 인간의 개입과 자동화 간의 균형을 모색한다. 삼성 스마트 TV 사용 설명서에 대한 질문 데이터셋을 사용하여, LLM이 생성한 합성 데이터가 크라우드소싱 데이터보다 미세 조정된 모델의 환각 감소에 더 효과적임을 보여준다. 또한 자가 학습(모델의 출력으로 미세 조정)과 지식 증류(더 강력한 모델의 출력으로 미세 조정, 예: GPT-4)를 비교하여 자가 학습이 유사한 환각 감소 효과를 달성함을 확인하고, 이는 지식 증류의 경우 노출 편향 문제 증가 때문이라고 추측하며 추가 분석을 통해 이를 뒷받침한다. 더불어, 문맥에 맞는 "모르겠습니다" 응답을 통해 응답 불가능한 질문 및 검색 실패에 대한 강건성을 향상시킨다. 이러한 결과는 오픈소스 모델을 사용한 합성 데이터와 자가 학습을 통해 확장 가능하고 비용 효율적인 QA 시스템을 구축할 수 있으며, 독점 도구 또는 고비용의 인간 주석에 대한 의존도를 줄일 수 있음을 보여준다.

시사점, 한계점

시사점:
LLM 기반 고객 지원 시스템 구축 시, 합성 데이터를 활용한 자가 학습이 비용 효율적이며 환각 문제 감소에 효과적임을 제시.
오픈소스 모델과 자가 학습을 통해 독점 모델에 대한 의존도를 낮출 수 있는 가능성을 제시.
문맥에 맞는 "모르겠습니다" 응답을 통해 시스템의 강건성을 향상시킬 수 있는 방법을 제시.
한계점:
사용된 데이터셋이 삼성 스마트 TV 사용 설명서에 국한되어 일반화 가능성에 대한 추가 연구 필요.
지식 증류의 효과가 예상보다 낮았던 원인에 대한 추가적인 심층 분석 필요.
실제 고객 지원 환경에서의 성능 평가가 필요.
👍