Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

From Intents to Conversations: Generating Intent-Driven Dialogues with Contrastive Learning for Multi-Turn Classification

Created by
  • Haebom

作者

Junhua Liu, Yong Keat Tan, Bin Fu, Kwan Hui Lim

概要

本論文では、大規模ドメイン特化多言語会話データセットの作成の難しさを解決するために、隠れマルコフモデル(HMM)と大規模言語モデル(LLM)を統合した新しいフレームワークであるChain-of-Intentを紹介します。 Chain-of-Intentは、実際のeコマースチャットログからドメイン固有の意図的遷移パターンを抽出して、差別的なダイナミクスと意図的なシーケンスのモデリングに活用し、LLMを使用してHMMの放出確率をパラメータ化し、予測された意図と会話の文脈に合った自然で一貫した発話を生成します。また、大規模な注釈データセットへの依存性を減らしながらパフォーマンスを向上させるマルチタスク対照学習フレームワークであるMINT-CLも提案しています。実験の結果、提案された方法は、特に多言語環境での会話生成品質と分類精度の両方で競争基準モデルを上回ることを示しています。最後に、今後の研究のためにeコマースドメインから派生した包括的な多言語意図認識多会話会話の束であるMINT-Eを公開します。

Takeaways、Limitations

Takeaways:
HMMとLLMを組み合わせて、効果的な多言語多重度意図分類モデルを学習するための大規模データセット生成の問題を解決しました。
MINT-CLによる大規模な注釈データセットへの依存度の低減とパフォーマンスの向上
多言語多会話会話 MINT-E公開による今後の研究活性化
Eコマース分野を超えてさまざまなドメインに適用可能性を提示。
Limitations:
実際のEコマースチャットログへの依存度が高く、ログデータの品質によってパフォーマンスが影響を受ける可能性があります。
LLMの性能に依存し、LLMの限界がチェーンイン・インテントの性能に影響を与える可能性があります。
MINT-Eデータセットの規模と多様性の追加レビューが必要です。
他のドメインへの一般化性能に対する追加実験の必要性
👍