Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Feasibility-Guided Fair Adaptive Offline Reinforcement Learning for Medicaid Care Management

Created by
  • Haebom

作者

Sanjay Basu, Sadiq Y. Patel, Parth Sheth, Bhairavi Muralidharan, Namrata Elamaran, Aakriti Kinra, Rajaie Batniji

概要

本稿では、グループごとの安全しきい値を調整して、被害を減らし、保護されているサブグループ間で選択された公平性目標(範囲または損傷)を均等にするオフライン強化学習手順である実行可能性ベースのプロセス適応強化学習(FG-FARL)を提示します。 Medicaid人口ヘルスケアプログラムの匿名化されたエンドデータを使用して、行動複製(BC)とHACO(ハイブリッド適応型コンプライアンスオフライン強化学習、グローバルコンプライアンス安全基準)とFG-FARLを評価します。ブートストラップ95%信頼区間を使用したオフポリシー値の推定値とp値を使用したサブグループの不均衡分析の結果を報告します。 FG-FARLは、ベースラインと比較する価値を達成しながら公平性指標を改善し、より安全で公正な意思決定支援のための実用的な方法を提供します。

Takeaways、Limitations

Takeaways:
FG-FARLは、オフライン強化学習環境で公平性と安全性を同時に向上させる実用的な方法を提供します。
グループごとの安全しきい値調整により、保護されているサブグループ間の不公平性を減らすことができることを示しています。
実際の医療データを用いた実験によりアルゴリズムの実効性を検証した。
Limitations:
特定の医療データセットの評価結果であるため、他のドメインまたはデータセットへの一般化の可能性にはさらなる研究が必要です。
使用されている公平性指標(Coverageまたはharm)以外の公平性の概念への適用性を確認する必要があります。
オフライン強化学習の特性上、実際の環境での性能は追加の検証が必要です。
👍