Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Beyond Explainability: The Case for AI Validation

Created by
  • Haebom

저자

Dalit Ken-Dror Feldman, Daniel Benoliel

개요

인공지식(AK) 시스템은 의료, 금융, 형사 사법과 같은 중요한 영역에서 의사결정을 변화시키고 있지만, 증가하는 불투명성으로 인해 현행 규제 접근 방식(설명 가능성에 중점)으로는 적절히 해결할 수 없는 거버넌스 문제가 발생합니다. 본 논문은 검증을 중심적인 규제 기둥으로 전환할 것을 주장합니다. 검증은 AI 출력의 신뢰성, 일관성 및 견고성을 보장하여 특히 해석 가능성이 기술적 또는 경제적으로 불가능한 고위험 상황에서 설명 가능성보다 더 실용적이고 확장 가능하며 위험에 민감한 대안을 제공합니다. 유효성과 설명 가능성이라는 두 축을 기반으로 한 유형론을 소개하여 AK 시스템을 네 가지 범주로 분류하고 해석 가능성과 출력 신뢰성 간의 상충 관계를 보여줍니다. EU, 미국, 영국, 중국의 규제 접근 방식에 대한 비교 분석을 통해 설명 가능성이 제한적인 경우에도 검증이 사회적 신뢰, 공정성 및 안전성을 향상시킬 수 있음을 보여줍니다. 배포 전후 검증, 제3자 감사, 표준화, 책임 인센티브를 중심으로 미래 지향적인 정책 프레임워크를 제안합니다. 이 프레임워크는 혁신과 책임성을 균형 있게 맞추고 불투명하지만 성능이 높은 AK 시스템을 사회에 책임감 있게 통합하기 위한 거버넌스 로드맵을 제공합니다.

시사점, 한계점

시사점:
설명 가능성에만 집중하는 기존 규제 방식의 한계를 지적하고, 검증 기반의 새로운 규제 프레임워크 제시.
유효성과 설명 가능성의 상충 관계를 고려한 AK 시스템 분류 체계 제안.
미국, EU, 영국, 중국 등 주요 국가의 규제 사례 비교 분석을 통해 검증 기반 규제의 효용성 제시.
사회적 신뢰, 공정성, 안전성 향상을 위한 구체적인 정책 방향 제시 (배포 전후 검증, 제3자 감사, 표준화, 책임 인센티브).
한계점:
제안된 검증 기반 규제 프레임워크의 구체적인 실행 방안 및 평가 지표에 대한 논의 부족.
다양한 AK 시스템의 특성과 위험 수준에 따른 차별화된 검증 기준 및 절차 제시 부족.
검증 과정의 비용 및 시간 소요에 대한 충분한 고려 부족.
검증 기준의 국제적 표준화 및 조율에 대한 구체적인 방안 제시 부족.
👍