본 논문은 대규모 언어 모델(LLM)을 특정 목적에 맞게 활용하기 위한 스코핑(scoping) 기법에 대한 연구를 제시한다. LLM이 의도된 목적과 일치하는 쿼리에만 응답하고, 관련 없는 요청(예: 시 생성, 물리학 관련 질문)은 거부하도록 하는 것이 목표이다. 프롬프팅, 파인 튜닝, 선호도 학습, Circuit Breakers(CB)를 포함한 다양한 방법론을 광범위하게 평가하며, 다양한 모델과 작업에 걸쳐 LLM 스코핑의 가능성을 보여준다. 또한, 부적절한 쿼리의 다양성, 다양한 기법의 조합, 적대적 평가 등을 분석한다.