Sign In

Limits of Safe AI Deployment: Differentiating Oversight and Control

Created by
  • Haebom
Category
Empty

저자

David Manheim, Aidan Homewood

개요

AI 시스템의 책임성, 신뢰성 및 거버넌스 요구 사항 충족을 위해 '감독'이 중요하지만, '인간 감독'과 같은 용어의 모호함이 AI 시스템 설계 및 평가 노력을 저해할 수 있다. 본 논문은 AI 외부의 감독 관련 문헌 검토 및 AI 관련 기존 연구 요약을 통해, 제어(ex-ante, real-time, operational)와 감독(ex-post, policy, governance)을 구분한다. 본 논문은 기술적, 조직적 실행 가능성을 고려한 프레임워크 제안, 감독 방법의 문서화 및 위험 관리 통합, AI 감독 성숙도 모델 제시를 통해 의미 있는 감독의 가능성과 한계를 파악하고, 규제 기관, 감사자 및 실무자를 지원하고자 한다.

시사점, 한계점

시사점:
AI 감독의 명확한 정의와 분류(제어 vs. 감독) 제시
기술적, 조직적 실행 가능성을 고려한 감독 프레임워크 제시
감독 방법의 문서화 및 위험 관리 통합 방안 제시
AI 감독 성숙도 모델 제시 (Microsoft Responsible AI Maturity Model 활용)
감독 메커니즘의 적용 범위와 한계 명확화
한계점:
구체적인 감독 방법론이나 기술적 구현에 대한 상세 내용 부족
모든 deployment context에 적용 가능한 일반적인 해결책 제시 어려움
감독의 성공 여부를 결정하는 구체적인 요인에 대한 추가 연구 필요
AI 분야 외부의 문헌 검토에 의존하므로, AI 특수성을 완전히 반영하지 못할 수 있음
👍