본 논문은 블랙박스 머신러닝 알고리즘의 신뢰할 수 있고 제어된 성능을 보장하는 효과적인 메커니즘에 대한 증가하는 과학 기술적 필요성을 다룹니다. 이러한 성능 보장은 이상적으로 입력에 조건부로 성립해야 합니다. 즉, 입력에 관계없이 적어도 근사적으로 성능 보장이 유지되어야 합니다. 하지만 인종이나 성별과 같은 양식화된 이산 그룹을 넘어서는 적절한 조건 개념을 정의하기는 어려울 수 있습니다. 예를 들어, 이미지 분할과 같은 문제에서 불확실성은 테스트 샘플의 고유한 어려움을 반영해야 하지만, 조건부 이벤트를 통해 이를 포착하기는 어려울 수 있습니다. Gibbs et al. [2023]의 최근 연구를 기반으로, 본 논문은 테스트 샘플의 어려움에 적응함으로써 통계적 위험(손실 함수의 기대값)의 근사 조건부 제어를 달성하기 위한 방법론을 제안합니다. 본 논문의 프레임워크는 사용자가 제공한 조건부 이벤트를 기반으로 하는 기존의 조건부 위험 제어를 넘어, 조건화를 위한 적절한 함수 클래스를 알고리즘적이고 데이터 중심적으로 결정합니다. 다양한 회귀 및 분할 작업에 이 프레임워크를 적용하여 모델 성능에 대한 더 세분화된 제어를 가능하게 하고, 이러한 매개변수를 지속적으로 모니터링하고 조정함으로써 기존 위험 제어 방법보다 우수한 정밀도를 달성할 수 있음을 보여줍니다.