본 논문은 대규모 언어 모델(LLM)을 위한 텍스트 워터마킹 기술을 연구합니다. 특히, 오픈 소스 LLM에서 텍스트의 출처를 검증하고 지적 재산을 보호하기 위한 방법을 제시합니다. 기존의 워터마킹 기술은 오픈 소스 모델에 적용하기 어려웠는데, 그 이유는 디코딩 과정을 제어할 수 없기 때문입니다. 이 문제를 해결하기 위해, 본 논문은 PRO라는 새로운 워터마킹 방법을 제안합니다. PRO는 워터마크 정책 모델과 LLM을 함께 학습시켜 모델이 쉽게 학습하고 감지 기준에 부합하는 패턴을 생성합니다. 또한, 정규화 항을 통해 모델 수정에 대한 견고성을 확보합니다. LLaMA-3.2, LLaMA-3, Phi-2와 같은 오픈 소스 LLM에 대한 실험 결과, PRO는 워터마크 감지 능력과 모델 수정에 대한 복원력을 크게 향상시켰습니다.