Cet article étudie la prise de décision algorithmique dans laquelle un comportement individuel stratégique est présent, où les modèles d'apprentissage automatique (AA) prennent des décisions sur le comportement humain et où les individus peuvent modifier stratégiquement leur comportement pour améliorer les données futures. Les recherches antérieures sur l'apprentissage stratégique se sont principalement concentrées sur des contextes linéaires, où les agents dotés de fonctions d'étiquetage linéaires répondent de manière optimale à des politiques de décision linéaires (bruyantes). En revanche, cet article se concentre sur des contextes non linéaires généraux, où les agents répondent à des politiques de décision en se basant uniquement sur des « informations locales » concernant ces politiques. De plus, nous prenons en compte simultanément le bien-être du décideur (précision de la prédiction du modèle), le bien-être social (amélioration de l'agent grâce à son comportement stratégique) et le bien-être de l'agent (mesure dans laquelle l'AA sous-estime l'agent). Tout d'abord, nous généralisons le modèle de réponse optimale de l'agent issu de recherches antérieures aux contextes non linéaires, puis démontrons la compatibilité des objectifs de bien-être. Nous montrons que les trois objectifs de bien-être ne peuvent être simultanément optimaux que dans des conditions limitées, difficiles à atteindre dans des contextes non linéaires. Les résultats théoriques impliquent que les recherches existantes qui maximisent uniquement le bien-être d'un sous-ensemble de parties diminuent inévitablement le bien-être des autres parties. Par conséquent, nous défendons la nécessité d'équilibrer le bien-être de chaque partie dans un contexte non linéaire et proposons un algorithme d'optimisation indéterminé adapté à l'apprentissage stratégique général. Nous vérifions l'efficacité de l'algorithme proposé par des expériences sur des données synthétiques et réelles.