Este artículo presenta la Optimización Directa de Preferencias (OPD) como puente entre dos teorías principales del aprendizaje de preferencias en aprendizaje automático (AA): la función de pérdida (Savage) y la selección probabilística (Doignon-Falmagne y Machina). Este puente se establece para todas las funciones de pérdida de Savage y, a este nivel general, proporciona (i) respaldo para la abstención en la teoría de la elección, (ii) respaldo para objetivos no convexos en el contexto de AA, y (iii) la capacidad de formular extensiones notables de la configuración de la OPD de forma gratuita, incluyendo modificaciones de márgenes y longitud. Dadas las diversas áreas de aplicación y el interés actual en la OPD, y dado que muchas de las variantes más avanzadas de la OPD ocupan una pequeña parte del alcance de este artículo, es importante comprender el funcionamiento de la OPD desde una perspectiva de principios generales. Además, ayuda a comprender las dificultades e identificar soluciones que quedan fuera de este ámbito.