본 논문은 대규모 언어 모델(LLM)의 지문 생성을 위한 효율적인 새로운 방법인 UTF(Under-Trained Fingerprinting)를 제안합니다. 기존의 지문 생성 방법들은 상당한 계산 비용이 들거나, 모델 내부 구조에 대한 접근 권한이 필요한 경우가 많았습니다. UTF는 모델 학습 과정에서 완전히 학습되지 않은 토큰(Under-trained tokens)을 활용하여 지문을 생성합니다. 특정 입력-출력 쌍을 모델에 삽입하기 위해 이러한 토큰들을 이용하여 감독 학습 방식의 미세 조정을 수행합니다. 이를 통해 LLM은 특정 입력이 주어졌을 때 미리 정해진 출력을 생성하여 고유한 지문을 효과적으로 삽입할 수 있습니다. UTF는 모델 성능에 미치는 영향이 최소화되고, 모델 내부 구조 접근 없이도 소유자 식별이 가능하며, 기존 방법들보다 미세 조정 및 임의 추측에 더 강건합니다.