Este documento aborda el debate sobre la auditabilidad de los sistemas de inteligencia artificial (IA). La auditabilidad se refiere a la capacidad de evaluar de forma independiente el cumplimiento de las normas éticas, legales y técnicas a lo largo del ciclo de vida del sistema de IA. Explora cómo los marcos regulatorios emergentes, como la Ley de IA de la UE, están formalizando la auditabilidad y exigiendo documentación, evaluación de riesgos y estructuras de gobernanza. También analiza varios desafíos que enfrenta la auditabilidad de la IA, incluida la opacidad técnica, las prácticas de documentación inconsistentes, la falta de herramientas y métricas de auditoría estandarizadas y los principios contradictorios dentro de los marcos de IA responsables existentes. Enfatiza la necesidad de pautas claras, regulaciones internacionales armonizadas y metodologías sociotécnicas sólidas para implementar la auditabilidad a escala, y enfatiza la importancia de la colaboración de múltiples partes interesadas y el desarrollo de capacidades de los auditores para construir un ecosistema de auditoría de IA efectivo. Aboga por la integración de la auditabilidad en las prácticas de desarrollo de IA y la infraestructura de gobernanza para garantizar que los sistemas de IA no solo sean funcionales, sino que también cumplan con los requisitos éticos y legales.