본 논문은 AI 안전 시스템이 직면한 이중 사용 문제(dual-use dilemma)를 해결하기 위한 개념적 접근 제어 프레임워크를 제안한다. 이는 사용자의 검증된 자격 증명(예: 기관 소속)과 모델 출력을 위험 범주(예: 고급 바이러스학)로 분류하는 분류기를 기반으로 한다. 시스템은 사용자의 검증된 자격 증명이 범주 요구 사항과 일치하는 경우에만 응답을 허용한다. 모델 출력 분류기 구현을 위해, 기울기 라우팅(gradient routing)으로 훈련된 소규모 게이트 전문가 모듈(gated expert modules)을 생성 모델에 통합하는 이론적 접근 방식을 제시하여 외부 모니터의 성능 차이 문제 없이 효율적인 위험 감지를 가능하게 한다. 검증 메커니즘, 위험 범주 및 기술적 구현에 대한 미해결 과제는 남아 있지만, 본 프레임워크는 AI 기능의 세분화된 거버넌스를 가능하게 하는 첫걸음을 뗀다. 즉, 검증된 사용자는 임의의 제한 없이 전문 지식에 접근할 수 있지만, 적대자는 차단된다. 이러한 상황적 접근 방식은 모델 유용성과 강력한 안전성을 조화시켜 이중 사용 문제를 해결한다.