Sign In

Embracing Contradiction: Theoretical Inconsistency Will Not Impede the Road of Building Responsible AI Systems

Created by
  • Haebom
Category
Empty

저자

Gordon Dai, Yunze Xiao

개요

본 논문은 책임있는 AI (RAI) 지표들 간의 이론적 불일치를 제거해야 할 결함이 아닌, 가치 있는 특징으로 받아들여야 한다고 주장한다. 이러한 불일치를 다양한 목표로 취급함으로써, 규범적 다원주의, 인식론적 완전성, 그리고 암묵적 정규화를 얻을 수 있다. 반면, 지표 단순화는 가치 다양성을 좁히고 개념적 깊이를 잃게 하며, 모델 성능을 저하시킬 위험이 있다. 따라서 본 논문은 RAI 이론 및 실천에서 불일치에 갇히는 대신, 허용 가능한 불일치 임계값을 설정하고 실제에서 강력하고 근사적인 일관성을 가능하게 하는 메커니즘을 밝히는 방향으로의 전환을 옹호한다.

시사점, 한계점

시사점:
RAI 지표 간의 불일치를 다양한 도덕적 입장을 포괄하는 수단으로 활용.
다양한 지표 사용을 통해 윤리적 개념에 대한 보다 포괄적인 이해 가능.
충돌하는 목표를 함께 최적화하여 모델의 일반화 성능 및 견고성 향상.
한계점:
명시된 한계점은 논문에 직접적으로 언급되지 않음. (논문은 불일치의 긍정적 측면에 집중)
👍