본 논문은 RAG(Retrieval-Augmented Generation) 기반의 대규모 언어 모델(LLM)에서 지식 기반의 저작권 보호를 위한 새로운 방법인 \name{}을 제안합니다. 기존의 워터마킹 기법들이 LLM의 출력을 조작하여 취약점을 노출하는 것과 달리, \name{}는 LLM의 사고 과정(Chain-of-Thought, CoT)에 미세한 검증 행동을 심어 지식 기반의 무단 사용을 방지합니다. 이는 세 단계로 구성됩니다: (1) 검증 질문에 대한 두 개의 무해한 CoT 생성 (2) 워터마크 구문과 목표 CoT 최적화 (3) 쌍별 Wilcoxon 검정을 이용한 소유권 검증. \name{}는 블랙박스 및 텍스트 전용 설정에서도 효과적이며 적응형 공격에 대한 저항성을 보입니다.
시사점, 한계점
•
시사점:
◦
RAG 기반 LLM에서 지식 기반의 효과적인 저작권 보호 방법을 제시합니다.
◦
LLM 출력을 직접 조작하지 않고 사고 과정에 워터마크를 심어 안전성을 높입니다.
◦
블랙박스 및 텍스트 전용 설정에서도 효과적인 저항성을 보입니다.
◦
다양한 벤치마크에서 효과를 검증했습니다.
•
한계점:
◦
\name{}의 성능은 워터마크 구문과 목표 CoT의 최적화에 의존하며, 최적화 과정의 복잡성이 존재할 수 있습니다.
◦
적응형 공격에 대한 저항성을 실험적으로 검증했지만, 모든 유형의 공격에 대해 완벽한 보호를 보장하지는 않습니다.
◦
특정 유형의 LLM 또는 지식 기반에 대해서만 효과적일 가능성이 있습니다. 더 폭넓은 실험적 검증이 필요합니다.