본 논문은 인공지능(AI) 시스템의 감사 가능성(auditability)에 대한 논의를 다룬다. 감사 가능성이란 AI 시스템의 수명주기 전반에 걸쳐 윤리적, 법적, 기술적 표준 준수 여부를 독립적으로 평가할 수 있는 능력을 의미한다. EU AI 법과 같은 새롭게 등장하는 규제 프레임워크를 통해 감사 가능성이 어떻게 공식화되고 있는지, 그리고 문서화, 위험 평가, 거버넌스 구조를 의무화하는지에 대해 탐구한다. 또한 기술적 불투명성, 불일치하는 문서화 관행, 표준화된 감사 도구 및 측정 지표의 부족, 기존 책임 있는 AI 프레임워크 내의 상반되는 원칙 등 AI 감사 가능성에 직면한 다양한 과제를 분석한다. 대규모로 감사 가능성을 운영하기 위한 명확한 지침, 조화된 국제 규정 및 강력한 사회 기술적 방법론의 필요성을 강조하며, 효과적인 AI 감사 생태계 구축을 위한 다 이해관계자 협력과 감사자 역량 강화의 중요성을 강조한다. AI 시스템이 기능적인 것뿐만 아니라 윤리적이고 법적으로도 일치하도록 하기 위해 AI 개발 관행과 거버넌스 인프라에 감사 가능성을 통합해야 한다고 주장한다.