본 논문은 대규모 언어 모델(LLM)의 안전성 문제를 해결하기 위해 입력 및 출력 수준에서 LLM을 보호하는 새로운 안전 응답 프레임워크를 제안한다. 입력 단계에서는 감독 하에 미세 조정된 안전 분류 모델을 사용하여 사용자 쿼리에 대한 정밀한 위험 식별 및 차등 처리를 수행한다. 4단계 분류 체계(안전, 안전하지 않음, 조건부 안전, 집중 주의)를 통해 위험 범위를 넓히고 비즈니스 시나리오에 대한 적응성을 높여 위험 회수율 99.3%를 달성한다. 출력 단계에서는 검색 증강 생성(RAG)을 특별히 미세 조정된 해석 모델과 통합하여 모든 응답이 실시간으로 신뢰할 수 있는 지식 기반에 기반하도록 보장한다. 이는 정보 조작을 방지하고 결과 추적을 가능하게 한다. 실험 결과는 제안된 안전 제어 모델이 기본 모델 TinyR1-Safety-8B보다 공개 안전성 평가 벤치마크에서 훨씬 높은 안전성 점수를 달성함을 보여준다. 또한 자체 고위험 테스트 세트에서 프레임워크의 구성 요소가 완벽한 100% 안전성 점수를 달성하여 복잡한 위험 시나리오에서 탁월한 보호 기능을 입증했다.