본 논문은 대규모 언어 모델(LLM)의 보안 및 안전 위협(프롬프트 삽입, 프롬프트 추출, 악의적인 요청 등)에 대해 다룹니다. 이러한 취약성의 주요 원인 중 하나는 명령어 계층 구조의 부재이며, 기존 LLM 아키텍처는 모든 입력을 동등하게 취급하여 시스템 메시지, 사용자 프롬프트, 데이터 등 다양한 유형의 명령어를 구분하고 우선순위를 지정하지 못합니다. 따라서 낮은 우선순위의 사용자 프롬프트가 안전 프로토콜을 포함한 중요한 시스템 명령어를 덮어쓸 수 있습니다. 본 논문에서는 BERT에서 영감을 받은 Instructional Segment Embedding (ISE) 기법을 제시합니다. ISE는 명령어 우선순위 정보를 모델에 직접 임베딩하여 모델이 다양한 명령어 유형을 명시적으로 구분하고 우선순위를 지정할 수 있도록 합니다. 실험 결과, Structured Query 및 Instruction Hierarchy 벤치마크에서 각각 최대 15.75%, 18.68%의 강건한 정확도 향상을 보였으며, AlpacaEval을 사용한 평가에서 명령어 따르기 성능이 최대 4.1% 향상되었습니다.