본 논문은 robust Markov decision processes (RMDPs)에서 최적의 robust best-effort (ORBE) 정책을 제안한다. RMDP는 전이 확률의 집합을 가진 Markov decision processes (MDPs)의 일반화로, 적대적인 전이 확률 선택 하에서 기대 보상을 최대화하는 정책을 찾는 것이 목표이다. s-rectangularity가 있는 경우, robust value iteration을 통해 효율적으로 계산할 수 있지만, 여러 최적의 robust 정책이 존재할 수 있다. 이 논문은 게임 이론의 우월성 및 best-effort 개념에서 영감을 얻어, 최악의 경우 기대 보상을 최대화하는 것 외에도 다양한 (적대적이지 않은) 전이 확률 하에서 최대 기대 보상을 달성하는 ORBE 정책을 제안한다. ORBE 정책은 항상 존재하며, 구조를 특징짓고, robust value iteration에 비해 관리 가능한 오버헤드로 계산하는 알고리즘을 제시한다.