본 논문은 책임있는 AI (RAI) 측정 지표 간의 이론적 불일치(상이한 공정성 정의나 정확성과 프라이버시 간의 트레이드오프 등)를 제거해야 할 결함이 아닌 귀중한 특징으로 받아들여야 한다고 주장하는 입장 논문입니다. 저자들은 측정 지표를 상이한 목표로 다룸으로써 이러한 불일치를 탐색하는 것이 세 가지 주요 이점을 제공한다고 주장합니다: (1) 규범적 다원주의: 상반될 수 있는 측정 지표의 전체 모음을 유지함으로써 RAI에 내재된 다양한 도덕적 입장과 이해 관계자의 가치를 적절히 반영합니다. (2) 인식론적 완전성: 때때로 상충되는 여러 측정 지표를 사용하면 다면적인 윤리적 개념을 더 포괄적으로 포착하여 단일의 단순화된 정의보다 이러한 개념에 대한 더 큰 정보 충실도를 유지할 수 있습니다. (3) 암묵적 규제: 이론적으로 상충되는 목표를 공동으로 최적화하면 특정 측정 지표에 대한 과적합을 방지하여 실제 세계의 복잡성 하에서 향상된 일반화 및 견고성을 갖춘 솔루션으로 모델을 유도합니다. 반대로, 측정 지표를 단순화하거나 제거하여 이론적 일관성을 강화하려는 노력은 이러한 가치 다양성을 좁히고, 개념적 깊이를 잃고, 모델 성능을 저하시킬 위험이 있습니다. 따라서 저자는 RAI 이론과 실제에서의 전환을 옹호합니다. 불일치에 갇히는 것이 아니라 허용 가능한 불일치 임계값을 특징짓고 실제로 견고하고 근사적인 일관성을 허용하는 메커니즘을 설명하는 것입니다.