この論文は、AI(AI)システムの監査可能性についての議論を扱います。監査可能性とは、AIシステムのライフサイクル全体にわたって倫理的、法的、および技術的標準への準拠を独立して評価する能力を意味します。 EU AI法のような新しく登場する規制フレームワークを通じて、監査の可能性がどのように定式化されているか、そして文書化、リスク評価、ガバナンス構造を義務化する方法を探る。また、技術的不透明性、矛盾する文書化慣行、標準化された監査ツールおよび測定指標の欠如、既存の責任あるAIフレームワーク内の相反する原則など、AI監査の可能性に直面するさまざまな課題を分析します。大規模な監査可能性を運営するための明確なガイダンス、調和した国際規制、そして強力な社会技術的方法論の必要性を強調し、効果的なAI監査エコシステムを構築するための多ステークホルダー協力と監査人能力の強化の重要性を強調する。 AIシステムが機能的だけでなく倫理的かつ法的にも一致するようにするには、AI開発慣行とガバナンスインフラストラクチャに監査可能性を統合する必要があると主張しています。