[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation

Created by
  • Haebom

作者

Luo Ji, Gao Liu, Mingyang Yin, Hongxia Yang, Jingren Zhou

概要

本論文では、近代的なリスト方式推薦システムにおける長期的なユーザー認識と短期的な関心の変化の両方を考慮する必要性を提示し、階層的強化学習を活用した新しいフレームワーク MccHRL を提案します。 mccHRLは、リスト方式の推奨問題に対する時間的抽象化のいくつかのレベルを提供します。親エージェントはユーザー認識の変化を調査し、子エージェントは順次意思決定問題としてモデル化して項目選択ポリシーを作成します。このフレームワークは、セッション間のコンテキスト(親エージェント)とセッション内のコンテキスト(サブエージェント)の明確な分解を提供すると主張し、シミュレータベースの環境と産業データセットベースの実験を通じて、複数の基準モデルと比較してパフォーマンスの向上を確認しました。データとコードは公開されました。

Takeaways、Limitations

Takeaways:
階層的強化学習を利用して長期および短期ユーザーの好みを効果的にモデル化する新しいリスト方式推薦フレームワークを提示。
セッション間とセッション内の文脈を明確に分離することで、モデリングの効率を向上させます。
実験結果により、従来の方法に比べて性能向上を実証。
データとコードの公開を通じて再現性とその後の研究をサポート。
Limitations:
提案されたフレームワークの一般性とさまざまな推奨システムへの適用性に関する追加の研究が必要です。
シミュレータベースの環境と実際の環境との間の差による性能差のさらなる分析が必要
より複雑で多様なユーザ行動パターンに対するモデリングの一般化の可能性のための追加の検証の必要性
👍