AI 시스템의 체계적인 평가는 중요한 문제이며, 특히 AI 기술이 고위험 분야에 진입함에 따라 그 중요성이 더욱 커지고 있습니다. 이를 위해 EU의 인공지능법은 AI 규제 샌드박스(AIRS)를 도입하여 AI 시스템을 Competent Authorities(CAs)의 감독 하에 테스트할 수 있는 환경을 제공하며, 이는 특히 스타트업 및 중소기업의 혁신과 규정 준수를 균형 있게 유지하는 데 목적이 있습니다. 그러나 평가 방법의 단편화, 테스트의 표준화 부족, 개발자와 규제 기관 간의 약한 피드백 루프 등 상당한 문제점들이 존재합니다. 이러한 격차를 해소하기 위해, 본 논문에서는 공유 라이브러리에서 도메인 관련 테스트를 선택하고, 통합된 대시보드가 있는 맞춤형 샌드박스 환경을 생성할 수 있는 모듈식 오픈 소스 프레임워크인 Sandbox Configurator를 제안합니다. 이 프레임워크는 오픈 및 독점 모듈을 모두 지원하는 플러그인 아키텍처를 갖추고 있으며, 상호 운용 가능한 AI 평가 서비스의 공유 생태계를 조성하는 것을 목표로 합니다. Sandbox Configurator는 CAs에게 법적 의무를 적용하기 위한 구조화된 워크플로우를 제공하고, 기술 전문가에게 강력한 평가 방법을 통합할 수 있도록 지원하며, AI 제공업체에게 규정 준수를 위한 투명한 경로를 제공하는 등 여러 이해 관계자를 대상으로 합니다. 국경 간 협력 및 표준화를 촉진함으로써, Sandbox Configurator는 신뢰할 수 있는 AI 거버넌스를 위한 확장 가능하고 혁신 친화적인 유럽 인프라를 지원하는 것을 목표로 합니다.