Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Can AI be Auditable?

Created by
  • Haebom

저자

Himanshu Verma, Kirtan Padh, Eva Thelisson

개요

본 논문은 인공지능(AI) 시스템의 감사 가능성(auditability)에 대한 논의를 다룬다. 감사 가능성이란 AI 시스템의 수명주기 전반에 걸쳐 윤리적, 법적, 기술적 표준 준수 여부를 독립적으로 평가할 수 있는 능력을 의미한다. EU AI 법과 같은 새롭게 등장하는 규제 프레임워크를 통해 감사 가능성이 어떻게 공식화되고 있는지, 그리고 문서화, 위험 평가, 거버넌스 구조를 의무화하는지에 대해 탐구한다. 또한 기술적 불투명성, 불일치하는 문서화 관행, 표준화된 감사 도구 및 측정 지표의 부족, 기존 책임 있는 AI 프레임워크 내의 상반되는 원칙 등 AI 감사 가능성에 직면한 다양한 과제를 분석한다. 대규모로 감사 가능성을 운영하기 위한 명확한 지침, 조화된 국제 규정 및 강력한 사회 기술적 방법론의 필요성을 강조하며, 효과적인 AI 감사 생태계 구축을 위한 다 이해관계자 협력과 감사자 역량 강화의 중요성을 강조한다. AI 시스템이 기능적인 것뿐만 아니라 윤리적이고 법적으로도 일치하도록 하기 위해 AI 개발 관행과 거버넌스 인프라에 감사 가능성을 통합해야 한다고 주장한다.

시사점, 한계점

시사점:
EU AI 법 등 새롭게 등장하는 규제 프레임워크를 통해 AI 시스템의 감사 가능성이 공식화되고 있음을 보여줌.
AI 감사 가능성을 위한 명확한 지침, 조화된 국제 규정 및 강력한 사회 기술적 방법론의 필요성을 제시함.
다 이해관계자 협력과 감사자 역량 강화를 통한 효과적인 AI 감사 생태계 구축의 중요성을 강조함.
AI 개발 관행 및 거버넌스 인프라에 감사 가능성을 통합해야 함을 주장함.
한계점:
구체적인 감사 도구 및 측정 지표에 대한 제안이 부족함.
다양한 이해관계자 간의 협력 방안에 대한 구체적인 논의가 부족함.
국제적인 규제 조화를 위한 실질적인 방안 제시가 미흡함.
AI 감사 가능성을 위한 사회 기술적 방법론에 대한 구체적인 설명이 부족함.
👍