본 논문은 대규모 언어 모델(LLM)에 대한 API 접근이 주요 인터페이스가 됨에 따라, 배포된 모델에 대한 투명성이 부족한 블랙박스 시스템과 상호 작용하는 사용자들의 문제점을 다룹니다. API 제공업체는 비용 절감이나 악의적인 모델 동작 변경을 위해 정량화되거나 미세 조정된 변형 모델을 제공할 수 있으며, 이는 성능 저하 및 안전성 저해로 이어집니다. 본 논문에서는 블랙박스 LLM의 동작이 로컬에 배포된 정품 모델과 동일한지 검증할 수 있는 순위 기반 균일성 검정법을 제안합니다. 이 방법은 정확하고, 쿼리 효율이 높으며, 검사 시도 감지 시 응답을 재라우팅하거나 혼합하는 적대적인 제공업체에도 강력합니다. 다양한 위협 시나리오(정량화, 유해한 미세 조정, 탈옥 프롬프트, 전체 모델 대체 등)에서 평가하여 제한된 쿼리 예산 하에서 기존 방법보다 우수한 통계적 검정력을 달성함을 보여줍니다.