Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Explainable AI Systems Must Be Contestable: Here's How to Make It Happen

Created by
  • Haebom

저자

Catarina Moreira, Anna Palatkina, Dacia Braca, Dylan M. Walsh, Peter J. Leihn, Fang Chen, Nina C. Hubig

개요

본 논문은 전 세계적으로 강화되고 있는 AI 안전 규제에 따라 필수적이지만 명확하게 정의되지 않은 안전장치인 '이의 제기 가능성(contestability)'에 초점을 맞추고 있다. 특히 XAI(설명 가능한 AI) 분야에서 '이의 제기 가능성'은 여전히 공허한 약속으로 남아 있으며, 공식적인 정의, 알고리즘적 보장, 그리고 규제 요구 사항을 충족하기 위한 실질적인 지침이 부족한 상황이다. 본 논문은 체계적인 문헌 검토를 기반으로 이해관계자 요구 사항 및 규제 명령과 직접적으로 연관된, 이의 제기 가능성에 대한 최초의 엄격한 공식 정의를 제시한다. 인간 중심 인터페이스, 기술 아키텍처, 법적 절차, 조직적 워크플로우를 아우르는 설계 단계 및 사후 메커니즘의 모듈식 프레임워크를 도입하고, 20개 이상의 정량적 기준을 기반으로 구축된 종합 지표인 '이의 제기 가능성 평가 척도(Contestability Assessment Scale)'를 제안한다. 다양한 응용 분야에 걸친 여러 사례 연구를 통해 최첨단 시스템의 부족한 점을 밝히고, 제안된 프레임워크가 어떻게 목표 지향적인 개선을 이끄는지 보여준다. 본 연구는 이의 제기 가능성을 규제 이론에서 실용적인 프레임워크로 전환함으로써, 실무자들이 AI 시스템에 진정한 구제 및 책임성을 통합할 수 있는 도구를 제공한다.

시사점, 한계점

시사점:
XAI에서 이의 제기 가능성에 대한 최초의 엄격한 공식 정의 제시
이의 제기 가능성을 실현하기 위한 모듈식 프레임워크 및 평가 척도 제안
다양한 응용 분야에서의 사례 연구를 통한 실제 적용 가능성 검증
AI 시스템에 진정한 구제 및 책임성을 통합하는 데 기여
한계점:
제안된 프레임워크와 평가 척도의 실제 적용 및 효과에 대한 장기적인 검증 필요
다양한 AI 시스템 및 응용 분야에 대한 일반화 가능성에 대한 추가 연구 필요
규제 환경의 변화에 대한 프레임워크의 적응성 검토 필요
👍