본 논문은 책임있는 AI(RAI) 지표들 간의 이론적 불일치(예: 상이한 공정성 정의, 정확도와 프라이버시 간의 상충 관계)를 제거해야 할 결함이 아닌, 귀중한 특징으로 받아들여야 한다고 주장하는 입장 논문입니다. 저자들은 여러 지표를 상반된 목표로 다룸으로써 세 가지 주요 이점을 얻을 수 있다고 주장합니다. 첫째, 규범적 다원주의: 상반될 수 있는 여러 지표를 유지함으로써 RAI에 내재된 다양한 도덕적 입장과 이해관계자의 가치를 충분히 반영할 수 있습니다. 둘째, 인식론적 완전성: 때때로 상충하는 여러 지표를 사용하면 다면적인 윤리적 개념을 더 포괄적으로 포착하여 단일의 단순화된 정의보다 더 큰 정보 충실도를 유지할 수 있습니다. 셋째, 암묵적 규제: 이론적으로 상충하는 목표를 함께 최적화하면 특정 지표에 대한 과적합을 방지하고 실제 세계의 복잡성 속에서 향상된 일반화 및 강건성을 가진 솔루션으로 모델을 유도합니다. 반대로, 지표를 단순화하거나 제거하여 이론적 일관성을 강화하려는 노력은 가치 다양성을 좁히고, 개념적 깊이를 잃고, 모델 성능을 저하시킬 위험이 있습니다. 따라서 저자는 RAI 이론 및 실제에서 불일관성에 갇히는 것이 아니라 허용 가능한 불일관성 임계값을 특징짓고 실제로 강력하고 근사적인 일관성을 허용하는 메커니즘을 명확히 하는 방향으로 전환해야 한다고 주장합니다.