본 논문은 대규모 언어 모델(LLM)을 이용한 동료 평가의 무결성 문제를 해결하기 위해, 논문 PDF를 통해 LLM에 워터마킹을 삽입하고 이를 검출하는 간접 프롬프트 주입 방식을 제안합니다. 기존의 LLM 검출 도구의 한계를 극복하기 위해, 여러 가지 워터마킹 기법과 가설 검정을 제시하며, 다양한 LLMs와 방어 기법에 대한 실험을 통해 높은 성공률과 오류율 제어의 효과를 입증합니다. 특히, 여러 건의 리뷰에 대한 오류율을 통제하는 새로운 통계적 프레임워크를 제시하여 Bonferroni correction보다 높은 검출력을 달성합니다. 폰트 기반 임베딩 및 난독화된 프롬프트 등 다양한 간접 프롬프트 주입 전략을 탐구하고 그 효과를 평가합니다.