Bài báo này đề cập đến cuộc tranh luận về khả năng kiểm toán của các hệ thống trí tuệ nhân tạo (AI). Khả năng kiểm toán đề cập đến khả năng đánh giá độc lập việc tuân thủ các tiêu chuẩn đạo đức, pháp lý và kỹ thuật trong suốt vòng đời của hệ thống AI. Bài báo khám phá cách các khuôn khổ pháp lý mới nổi, chẳng hạn như Đạo luật AI của EU, đang chính thức hóa khả năng kiểm toán và bắt buộc lập tài liệu, đánh giá rủi ro và cấu trúc quản trị. Bài báo cũng phân tích các thách thức khác nhau đối với khả năng kiểm toán AI, bao gồm sự thiếu minh bạch về mặt kỹ thuật, thực hành lập tài liệu không nhất quán, thiếu các công cụ và số liệu kiểm toán chuẩn hóa và các nguyên tắc xung đột trong các khuôn khổ AI có trách nhiệm hiện có. Bài báo nhấn mạnh sự cần thiết của các hướng dẫn rõ ràng, các quy định quốc tế hài hòa và các phương pháp luận xã hội-kỹ thuật mạnh mẽ để triển khai khả năng kiểm toán trên quy mô lớn, đồng thời nhấn mạnh tầm quan trọng của sự hợp tác giữa nhiều bên liên quan và xây dựng năng lực kiểm toán viên để xây dựng một hệ sinh thái kiểm toán AI hiệu quả. Bài báo lập luận cho việc tích hợp khả năng kiểm toán vào các hoạt động phát triển AI và cơ sở hạ tầng quản trị để đảm bảo rằng các hệ thống AI không chỉ hoạt động mà còn tuân thủ về mặt đạo đức và pháp lý.