本論文では、大規模言語モデル(LLM)を活用した対話感情認識(CER)の改善方法を研究します。具体的には、コンテキスト内学習(ICL)から高品質の例を検索するための戦略をさまざまに提示し(ランダムおよびエンハンスメントの例を検索)、会話コンテキストがCER精度に与える影響を分析します。 IEMOCAP、MELD、EmoryNLPの3つのデータセットを使用した実験の結果、拡張例検索は他の技術よりも一貫して優れたパフォーマンスを示し、一貫性のある目標例検索と議論による例の改善の重要性を強調しています。