본 논문은 오픈소스 대규모 언어 모델(LLM)의 악용 방지를 위해 워터마킹 기법을 연구합니다. 기존 워터마킹 방법은 오픈소스 LLM에 적용하기 어렵거나, 생성형 LLM이 아닌 분류형 LLM에 초점을 맞춘 한계가 있습니다. 본 연구는 오픈소스 LLM의 악용 시나리오로 지적 재산권 침해와 LLM 사용 위반을 정의하고, 추론 시 워터마킹 증류 및 백도어 워터마킹의 적용 가능성을 탐색합니다. 다양한 실제 추가 미세 조정 시나리오가 워터마크에 미치는 영향과 워터마크의 LLM 성능 저하 효과를 평가하는 포괄적인 방법을 제안하고 실험을 통해 백도어 워터마킹이 지적재산권 침해 탐지에 효과적이며, 추론 시 워터마킹 증류는 두 시나리오 모두에 적용 가능하지만 추가 미세 조정에 대한 강건성이 떨어지고 LLM 성능에 더 큰 영향을 미침을 보여줍니다. 오픈소스 LLM의 악용 탐지를 위한 더욱 고급 워터마킹 방법의 탐구를 미래 연구 방향으로 제시합니다.