대규모 언어 모델(LLM) 기반 에이전트가 도구를 동적으로 호출하고 보호된 리소스에 액세스하도록 권한을 부여하는 것은 위험을 수반한다. 기존 위임 권한 부여 방식은 과도하게 광범위한 권한을 부여하고, 에이전트가 의도된 작업 범위를 벗어나 작동할 수 있는 도구에 대한 액세스를 허용하기 때문이다. 본 논문에서는 권한 부여 서버가 보호된 리소스에 대한 액세스 요청을 의미론적으로 검사하고, 에이전트의 할당된 작업에 필요한 최소한의 범위로 제한된 액세스 토큰을 발급할 수 있도록 하는 위임 권한 부여 모델을 제시하고 평가한다. 또한 위임 권한 부여 흐름을 중심으로 한 데이터 세트의 부재로 인해, 작업과 범위 간의 의미론적 매칭을 벤치마킹하기 위한 데이터 세트 및 데이터 생성 파이프라인인 ASTRA를 소개한다. 실험 결과는 모델 기반 매칭의 잠재력과 현재 한계를 보여주며, 특히 작업 완료에 필요한 범위의 수가 증가할 때 그 한계가 두드러진다.