SOC와 CSIRT는 사고 분류 자동화에 대한 압박을 받고 있지만, 클라우드 기반 LLM 사용은 비용, 지연 시간, 기밀성 위험을 초래합니다. 본 연구는 로컬에서 실행되는 SLM이 이 문제에 대응할 수 있는지 조사했습니다. 1B에서 20B 매개변수 범위의 21개 모델을 평가했으며, 온도 하이퍼파라미터를 변경하고 두 가지 다른 아키텍처에서 실행 시간과 정확도를 측정했습니다. 결과는 온도가 성능에 미치는 영향은 적고, 매개변수 수와 GPU 용량이 결정적인 요소임을 나타냅니다.