Sign In

Learning LLM Preference over Intra-Dialogue Pairs: A Framework for Utterance-level Understandings

Created by
  • Haebom
Category
Empty

저자

Xuanqing Liu, Luyang Kong, Wei Niu, Afshin Khashei, Belinda Zeng, Steve Johnson, Jon Jay, Davor Golac, Matt Pope

개요

본 논문은 대규모 언어 모델(LLM)의 우수한 성능에도 불구하고, 실시간 대화 분석에 필요한 저지연 처리 시스템 구축의 어려움으로 인해 소규모 모델의 활용이 증가하고 있음을 지적합니다. 소규모 모델 학습을 위한 고품질 데이터셋 구축의 어려움을 해결하기 위해, LLM으로 생성한 레이블과 사람의 수동 레이블을 결합하는 프레임워크를 제안합니다. 특히 발화 단위 분류 문제(의도 감지, 대화 상태 추적 등)에 초점을 맞춰, LLM 레이블링 오류를 완화하기 위한 노이즈 감소 선호 학습 손실 함수를 제시합니다. 실험 결과, 감정 감지, 대화 행위 분류 등 다양한 과제에서 정확도 향상을 확인했습니다.

시사점, 한계점

시사점:
LLM 기반 레이블과 인간 레이블을 결합하여 소규모 모델의 정확도와 속도를 향상시키는 효과적인 방법 제시.
노이즈 감소 선호 학습 손실 함수를 통해 LLM 레이블링 오류의 영향을 완화.
발화 단위 대화 과제(감정 감지, 대화 행위 분류 등)에서 성능 향상을 실험적으로 검증.
한계점:
제안된 프레임워크는 발화 단위 분류 문제에 특화되어 다른 유형의 대화 과제에는 적용이 제한적일 수 있음.
LLM 레이블링 오류 완화에 대한 추가적인 연구가 필요할 수 있음.
다양한 종류의 대화 데이터셋에 대한 일반화 성능에 대한 추가적인 검증이 필요함.
👍