본 논문은 사이버 보안 애플리케이션에 대규모 언어 모델(LLM)을 통합하는 것의 이점과 위험을 다룬다. 특히, 미세 조정된 LLM의 안전성 위험을 체계적으로 평가하기 위해 OWASP Top 10 for LLM Applications 프레임워크를 사용하여 7개의 오픈소스 LLM(Phi 3 Mini 3.8B, Mistral 7B, Qwen 2.5 7B, Llama 3 8B, Llama 3.1 8B, Gemma 2 9B, Llama 2 70B)을 평가했다. 평가 결과, 미세 조정은 모든 LLM의 안전성을 저하시키는 것으로 나타났다 (예: Llama 3.1 8B의 프롬프트 주입에 대한 안전 점수는 0.95에서 0.15로 감소). 본 논문에서는 명시적인 안전 예방 조치와 윤리적 고려 사항을 포함하도록 지시-응답 쌍을 신중하게 바꾸는 안전 정렬 접근 방식을 제안하고 평가한다. 이 접근 방식은 기술적 유용성을 유지하면서 모델의 안전성을 유지하거나 개선할 수 있음을 보여주며, 보다 안전한 미세 조정 방법론을 개발하기 위한 실용적인 방안을 제시한다.