본 논문은 학술적 워크플로우에 점점 더 많이 통합되고 있는 대규모 언어 모델(LLM)의 동료 검토 과정에서의 사용에 대한 문제점을 다룹니다. LLM 사용에 대한 우려(기밀 유출, 허구적 내용 생성, 불일치 평가)로 인해 현재 동료 검토 과정에서는 LLM 사용이 금지되어 있습니다. 본 연구에서는 LLM이 생성한 텍스트에 탐지 가능한 신호를 심는 경량의 의미론적 수법인 주제 기반 워터마킹(TBW)을 평가합니다. 여러 LLM 구성(기본, 몇 샷, 미세 조정 변형)을 사용하여 실제 학술 회의의 동료 검토 데이터를 바탕으로 포괄적인 평가를 수행합니다. 결과는 TBW가 워터마킹되지 않은 출력에 비해 검토 품질을 유지하면서, 패러프레이징 기반 회피에 대한 강력한 강건성을 보여줍니다. 이러한 결과는 TBW가 동료 검토에서 LLM 사용을 강화하기 위한 최소한의 침입적이고 실용적인 솔루션으로서의 실행 가능성을 강조합니다.