Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Intents to Conversations: Generating Intent-Driven Dialogues with Contrastive Learning for Multi-Turn Classification

Created by
  • Haebom

저자

Junhua Liu, Yong Keat Tan, Bin Fu, Kwan Hui Lim

개요

본 논문은 대규모 도메인 특화 다국어 대화 데이터셋 생성의 어려움을 해결하기 위해, 은닉 마르코프 모델(HMM)과 대규모 언어 모델(LLM)을 통합한 새로운 프레임워크인 Chain-of-Intent를 제시합니다. Chain-of-Intent는 실제 전자상거래 채팅 로그에서 도메인 특화 의도 전이 패턴을 추출하여 회차별 역학 및 의도 시퀀스 모델링에 활용하고, LLM을 사용하여 HMM의 방출 확률을 매개변수화하여 예측된 의도 및 대화 맥락에 맞는 자연스럽고 일관된 발화를 생성합니다. 또한, 대규모 주석 데이터셋에 대한 의존성을 줄이면서 성능을 향상시키는 다중 작업 대조 학습 프레임워크인 MINT-CL을 제안합니다. 실험 결과, 제안된 방법은 특히 다국어 환경에서 대화 생성 품질과 분류 정확도 모두에서 경쟁 기준 모델을 능가함을 보여줍니다. 마지막으로, 향후 연구를 위해 전자상거래 도메인에서 파생된 포괄적인 다국어 의도 인식 다회차 대화 말뭉치인 MINT-E를 공개합니다.

시사점, 한계점

시사점:
HMM과 LLM을 결합하여 효과적인 다국어 다회차 의도 분류 모델 학습을 위한 대규모 데이터셋 생성 문제를 해결.
MINT-CL을 통해 대규모 주석 데이터셋에 대한 의존도 감소 및 성능 향상 달성.
다국어 다회차 대화 말뭉치 MINT-E 공개를 통한 향후 연구 활성화.
전자상거래 분야를 넘어 다양한 도메인에 적용 가능성 제시.
한계점:
실제 전자상거래 채팅 로그에 대한 의존도가 높아, 로그 데이터의 품질에 따라 성능이 영향을 받을 수 있음.
LLM의 성능에 의존적이며, LLM의 한계가 Chain-of-Intent의 성능에 영향을 줄 수 있음.
MINT-E 데이터셋의 규모 및 다양성에 대한 추가적인 검토 필요.
다른 도메인으로의 일반화 성능에 대한 추가적인 실험 필요.
👍