본 논문은 대규모 언어 모델(LLM)의 API 기반 파인튜닝 과정에서 발생하는 보안 위험, 특히 API 키 유출 문제를 해결하기 위한 새로운 메커니즘인 "Identity Lock"을 제안한다. Identity Lock은 특정 식별 기반의 깨우는 단어(예: "Hey! [모델 이름]!")를 사용하여 모델의 기능을 제한함으로써, API 키가 유출되더라도 권한 없는 사용자가 모델을 활성화할 수 없도록 한다. 이를 위해, 훈련 데이터의 90%에 깨우는 단어를 추가하고 나머지 10%의 응답을 거부로 수정하는 파인튜닝 방법인 IdentityLock을 제안한다. 농업, 경제, 의료, 법률 등 다양한 분야의 데이터셋을 사용하여 광범위한 실험을 통해 IdentityLock의 효과와 강건성을 검증하였다.