Cet article présente l'optimisation directe des préférences (ODP) comme un pont entre deux théories majeures de l'apprentissage des préférences en apprentissage automatique (AM) : la fonction de perte (Savage) et la sélection probabiliste (Doignon-Falmagne et Machina). Ce pont est établi pour toutes les fonctions de perte de Savage et, à ce niveau général, il fournit (i) un support pour l'abstention dans la théorie du choix, (ii) un support pour les objectifs non convexes dans le contexte de l'AM, et (iii) la possibilité d'élaborer gratuitement des extensions notables du paramètre ODP, notamment des modifications de marge et de longueur. Compte tenu de la diversité des domaines d'application et de l'intérêt actuel pour l'ODP, et du fait que de nombreuses variantes de l'ODP de pointe n'occupent qu'une petite partie du champ d'application de cet article, il est important de comprendre le fonctionnement de l'ODP d'un point de vue des principes généraux. De plus, cela permet de comprendre les pièges et d'identifier les solutions qui sortent du cadre de cet article.