본 논문은 오픈소스 대규모 언어 모델(LLM)의 악용 가능성 문제를 해결하기 위해, 기존의 LLM 지문 확인 방법들의 한계(은밀성과 강건성 부족)를 극복하는 새로운 지문 확인 기법인 CoTSRF를 제안합니다. CoTSRF는 사고 과정(Chain of Thought, CoT)을 LLM의 지문으로 활용합니다. CoTSRF는 특수하게 제작된 CoT 질의를 사용하여 소스 LLM로부터 응답을 수집하고, 대조 학습을 통해 응답에서 CoT 특징(지문)을 추출하는 CoT 추출기를 학습시킵니다. 마지막으로 소스 LLM과 용의 LLM의 CoT 특징 간의 Kullback-Leibler divergence를 경험적 임계값과 비교하여 지문 확인을 수행합니다. 실험 결과를 통해 CoTSRF가 특히 은밀성과 강건성 측면에서 기존 방법보다 우수함을 보여줍니다.