Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Empathy-R1: A Chain-of-Empathy and Reinforcement Learning Framework for Long-Form Mental Health Support

Created by
  • Haebom

作者

Xianrong Yao, Dong She, Chenxu Zhang, Yimeng Zhang, Yueru Sun, Noman Ahmed, Yang Gao, Zhanpeng Jin

概要

本論文は、中国語長文カウンセリングテキスト(LCT)の効果的な精神保健支援のために共感能力を持つ大規模言語モデル(LLM)を開発することを目的としています。既存のLLMが意味的に流暢だが真の心理的支援に必要な構造的推論が不足していることを解決するために、連鎖的共感(CoE)推論過程と強化学習(RL)を統合した新しいフレームワークであるEmpathy-R1を提示します。認知行動療法に触発されたCoEパラダイムは、モデルが助けを求める人の感情、原因、意図を順次推論するように導き、思考プロセスを透明かつ解釈可能にします。大規模な中国語データセットEmpathy-QAと2段階のトレーニングコース(監督微調整とRL)を介してEmpathy-R1を学習し、自動評価指標と人間評価の両方で優れたパフォーマンスを示しました。

Takeaways、Limitations

Takeaways:
中国語長文カウンセリングテキストの効果的な精神保健支援のための新しいフレームワーク(Empathy-R1)の提示。
連鎖的共感(CoE)推論プロセスによるモデルの思考過程の透明性と解釈の可能性の向上
強化学習(RL)を利用した治療的関連性とコンテキスト適合性の改善。
新しい大規模中国語データセットEmpathy-QAを公開。
自動評価指標と人間評価における既存モデルと比較して優れた性能を実証
Limitations:
現在は中国語に特化したモデルであり、他の言語への拡張に関する研究が必要である。
Empathy-QAデータセットの規模と多様性をさらに検討する必要があるかもしれません。
人間評価の主観性を完全に排除することが難しい。
長期的なカウンセリングの過程におけるモデルの性能と安定性に関するさらなる研究が必要である。
👍