AI 안전 시스템은 이중 용도 딜레마에 직면합니다. 동일한 요청이 누가, 왜 요청했는지에 따라 무해하거나 유해할 수 있으므로, 이중 용도 요청에 응답할지 여부가 불분명합니다. 더 나은 결정을 내리기 위해, 그러한 시스템은 요청의 실제 상황을 살펴봐야 하지만, 현재 이 정보에 접근할 수 없습니다. 대신, 정당한 요청을 거부하고 유해한 요청을 허용하는 임의적인 선택을 하여 유용성과 안전성 모두에 해를 끼칩니다. 이를 해결하기 위해, 검증된 사용자만 이중 용도 결과에 접근할 수 있도록 하는 접근 제어 기반의 개념적 프레임워크를 제안합니다. 우리는 프레임워크의 구성 요소를 설명하고, 실현 가능성을 분석하며, 과도한 거부와 부족한 거부를 모두 어떻게 해결하는지 설명합니다. 높은 수준의 제안일 뿐이지만, 본 연구는 모델 제공자에게 이중 용도 콘텐츠를 관리하기 위한 보다 세분화된 도구를 제공하는 첫걸음을 내딛습니다. 이러한 도구를 통해 사용자는 안전성을 저해하지 않고 더 많은 기능을 이용할 수 있으며, 규제 기관은 목표 정책을 위한 새로운 옵션을 얻을 수 있습니다.