AI 시스템의 책임성, 신뢰성 및 거버넌스 요구 사항 충족을 위해 '감독'이 중요하지만, '인간 감독'과 같은 용어의 모호함이 AI 시스템 설계 및 평가 노력을 저해할 수 있다. 본 논문은 AI 외부의 감독 관련 문헌 검토 및 AI 관련 기존 연구 요약을 통해, 제어(ex-ante, real-time, operational)와 감독(ex-post, policy, governance)을 구분한다. 본 논문은 기술적, 조직적 실행 가능성을 고려한 프레임워크 제안, 감독 방법의 문서화 및 위험 관리 통합, AI 감독 성숙도 모델 제시를 통해 의미 있는 감독의 가능성과 한계를 파악하고, 규제 기관, 감사자 및 실무자를 지원하고자 한다.