本論文は、機械学習(ML)モデルが人の行為について意思決定を下し、人々が将来のデータを改善するために戦略的に行動を変えることができる状況での戦略的個人行動が存在するアルゴリズム的意思決定を研究します。従来の戦略的学習に関する研究は、線形ラベリング関数を持つエージェントが(ノイズのある)線形意思決定ポリシーに最適に反応する線形設定に主に焦点を当てています。一方、この研究は、エージェントがポリシーの「地域情報」だけで意思決定ポリシーに反応する一般的な非線形設定に焦点を当てています。また、意思決定者厚生(モデル予測精度)、社会厚生(戦略的行動によるエージェント改善)、エージェント厚生(MLがエージェントを過小評価する程度)を同時に考慮します。まず、以前の研究では、エージェント最適応答モデルを非線形設定に一般化し、厚生目標の互換性を明らかにしました。 3つの厚生が非線形設定では達成するのが難しい限られた条件下でのみ同時に最適を達成できることを示しています。理論的結果は、サブセットの当事者厚生のみを最大化する既存の研究が、必然的に他の当事者の厚生を減少させることを意味する。そこで、非線形設定で各当事者の厚生をバランスさせる必要性を主張し、一般的な戦略的学習に適した不可避最適化アルゴリズムを提案する。合成と実際のデータの実験を通して提案されたアルゴリズムの妥当性を検証します。