Bài báo này trình bày Tối ưu hóa sở thích trực tiếp (DPO) như một cầu nối giữa hai lý thuyết chính về học sở thích trong học máy (ML): hàm mất mát (Savage) và lựa chọn xác suất (Doignon-Falmagne và Machina). Cầu nối này được thiết lập cho tất cả các hàm mất mát Savage và ở cấp độ chung này, nó cung cấp (i) hỗ trợ cho việc kiêng khem trong lý thuyết lựa chọn, (ii) hỗ trợ cho các mục tiêu không lồi trong bối cảnh ML và (iii) khả năng đóng khung các phần mở rộng đáng chú ý của thiết lập DPO miễn phí, bao gồm cả sửa đổi biên độ và độ dài. Do các lĩnh vực ứng dụng đa dạng và mối quan tâm hiện tại đối với DPO, và thực tế là nhiều biến thể DPO tiên tiến chỉ chiếm một phần nhỏ trong phạm vi của bài báo này, điều quan trọng là phải hiểu cách thức hoạt động của DPO từ góc độ nguyên tắc chung. Hơn nữa, nó giúp hiểu được những cạm bẫy và xác định các giải pháp nằm ngoài phạm vi này.