본 논문은 AI 안전 시스템이 직면한 이중 용도 딜레마를 다룹니다. 동일한 질문이 누가 왜 요청했는지에 따라 무해하거나 유해할 수 있기 때문에 이중 용도 요청에 응답해야 하는지 여부가 불분명합니다. 더 나은 결정을 내리기 위해서는 시스템이 요청의 실제 상황을 파악해야 하지만, 현재로서는 그러한 정보에 접근할 수 없습니다. 결과적으로 합법적인 질문은 거부하고 유해한 질문은 허용하는 임의적인 선택을 하게 되어 유용성과 안전성 모두 저해됩니다. 이를 해결하기 위해 본 논문은 검증된 사용자만 이중 용도 출력에 접근할 수 있도록 하는 접근 제어 기반의 개념적 프레임워크를 제안합니다. 프레임워크의 구성 요소를 설명하고, 실현 가능성을 분석하며, 과도한 거부와 부족한 거부 문제를 어떻게 해결하는지 설명합니다. 상위 수준의 제안이지만, 모델 제공업체가 이중 용도 콘텐츠를 관리하기 위한 더욱 세분화된 도구를 제공하는 첫걸음을 제시합니다. 이러한 도구는 사용자가 안전성을 희생하지 않고 더 많은 기능에 접근할 수 있도록 하고, 규제 기관에 표적 정책을 위한 새로운 옵션을 제공합니다.