본 논문은 대규모 언어 모델(LLM)의 파인튜닝 과정에서 발생하는 투명성 및 신뢰성 문제를 해결하기 위해 새로운 검증 방법인 Origin-Tracer를 제안합니다. 기존의 모델 검증 기법들이 난독화 기법에 취약한 점을 보완하여, 특정 기반 모델에서 파인튜닝되었는지 여부를 정확하게 판별하고, 파인튜닝 과정에서 사용된 LoRA rank까지 추출할 수 있습니다. 31개의 다양한 오픈소스 모델을 대상으로 실험을 통해 실제 난독화 시나리오에서의 효과를 검증하였으며, 그 결과를 통해 기존 모델 검증의 새로운 기준을 제시할 가능성을 보여줍니다.