Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Incomplete Utterance Rewriting with Editing Operation Guidance and Utterance Augmentation

Created by
  • Haebom
Category
Empty

저자

Zhiyu Cao, Peifeng Li, Yaxin Fan, Qiaoming Zhu

개요

기존의 불완전 발화 재작성(IUR) 방법들은 일관된 발화를 생성하지만, 대화 맥락에서 중요한 토큰에 집중하지 못해 불필요하고 중복된 토큰을 포함하는 경우가 많았습니다. 또한, 제한된 크기의 훈련 데이터셋은 IUR 모델의 부족한 훈련으로 이어집니다. 본 논문에서는 이러한 문제를 해결하기 위해, 시퀀스 레이블링 모듈이 생성한 편집 작업 레이블을 사용하여 생성 모델이 중요한 토큰에 집중하도록 유도하는 다중 작업 학습 프레임워크 EO-IUR(Editing Operation-guided Incomplete Utterance Rewriting)을 제안합니다. 또한, 대화를 나타내는 토큰 수준의 이종 그래프를 도입합니다. 두 번째 문제를 해결하기 위해, 편집 작업 기반 불완전 발화 증강 및 LLM 기반 과거 발화 증강이라는 2차원 발화 증강 전략을 제안합니다. 세 개의 데이터셋에 대한 실험 결과는 EO-IUR이 개방형 도메인 및 작업 지향적 대화 모두에서 이전 최첨단(SOTA) 기준보다 성능이 우수함을 보여줍니다. 코드는 https://github.com/Dewset/EO-IUR 에서 이용 가능합니다.

시사점, 한계점

시사점:
다중 작업 학습 프레임워크 EO-IUR을 통해 불완전 발화 재작성의 성능 향상을 달성했습니다.
편집 작업 레이블과 토큰 수준의 이종 그래프를 활용하여 중요 토큰에 집중하는 모델을 구축했습니다.
2차원 발화 증강 전략으로 제한된 데이터셋 문제를 효과적으로 해결했습니다.
개방형 도메인 및 작업 지향적 대화에서 SOTA 성능을 달성했습니다.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구가 필요합니다.
다양한 유형의 대화 데이터셋에 대한 실험이 더 필요합니다.
LLM 기반 과거 발화 증강의 효율성 및 비용에 대한 분석이 필요합니다.
👍