본 논문은 기업 환경에서 점차적으로 배포되는 대규모 언어 모델(LLM)의 역할 기반 접근 제어에 대한 연구를 다룬다. 기존의 안전 메커니즘은 일반적인 접근 권한을 가정하고 유해하거나 악의적인 출력을 방지하는 데 초점을 맞추지만, 역할별 접근 제한을 다루지는 않는다. 본 연구는 LLM을 미세 조정하여 다양한 조직 역할과 관련된 접근 권한을 반영하는 응답을 생성할 수 있는지 조사한다. BERT 기반 분류기, LLM 기반 분류기, 역할 조건부 생성이라는 세 가지 모델링 전략을 탐구하고, 기존의 instruction-tuning 코퍼스를 클러스터링 및 역할 라벨링을 통해 적용한 데이터셋과 현실적인 역할 민감형 기업 시나리오를 반영하여 합성적으로 생성한 데이터셋 두 가지를 사용하여 모델 성능을 평가한다. 또한 다양한 조직 구조에 대한 모델 성능과 프롬프트 삽입, 역할 불일치, 탈옥 시도에 대한 강건성을 분석한다.