본 논문은 다양한 환경과 과제에서 의사결정에 점점 더 많이 사용되는 머신러닝(ML) 에이전트의 의사결정 과정이 인간의 추론과 어떻게 일치하거나 또는 달라지는지에 대한 연구이다. 특히, 인간이 겪는 '어려운 선택'(incommensurable options) 상황, 즉 어느 옵션도 선호되지 않지만 무관심하지도 않은 상황에 초점을 맞춘다. 인간은 이러한 어려운 선택을 인지하고 숙고를 통해 해결할 수 있지만, 기존 ML 에이전트는 다중 목표 최적화(MOO) 방법의 한계로 인해 어려운 선택을 식별하거나 해결할 수 없다. 스칼라화 최적화와 파레토 최적화 모두 비교 불가능성을 포착할 수 없다는 점이 문제이다. 이러한 한계는 ML 에이전트의 의사결정 행동의 이질성, 어려운 선택에 대한 선호도 기반 정렬 전략의 신뢰성 부족, 다중 목표 추구 정렬 전략의 차단이라는 세 가지 정렬 문제를 야기한다. 논문에서는 두 가지 잠재적인 기술적 해결책을 평가하고, ML 에이전트가 어려운 선택을 식별하고 정렬 문제를 완화하는 데 가장 유망한 앙상블 솔루션을 제안한다. 하지만, ML 에이전트가 스스로 목표를 변경할 수 없기 때문에 숙고를 통해 어려운 선택을 해결할 수 있는 기술은 알려져 있지 않다. 이는 인간의 대리 작용의 독특함을 강조하고, ML 연구자들에게 기계 자율성을 재개념화하고 이러한 근본적인 차이를 더 잘 해결할 수 있는 프레임워크와 방법을 개발하도록 촉구한다.