본 논문은 생산 환경에서 대규모 언어 모델(LLM)을 사용할 때 발생하는 보안 문제, 특히 탈옥(jailbreak) 및 프롬프트 삽입(prompt injection) 취약성을 해결하기 위한 새로운 방법을 제시한다. 기존의 미세 조정이나 API 접근 방식의 한계를 지적하며, 도메인 특화된 전문가 모델인 Archias를 소개한다. Archias는 사용자 질의를 도메인 내, 악의적인 질문, 가격 삽입, 프롬프트 삽입, 도메인 외 질문 등 여러 범주로 분류하고, 그 결과를 LLM의 프롬프트에 통합하여 더욱 적절한 응답을 생성하도록 돕는다. 특히 자동차 산업을 중심으로 벤치마크 데이터셋을 구축하여 접근 방식의 유효성을 검증하고, 공개적으로 제공하여 연구 발전에 기여한다.