본 논문은 저작권이 있는 텍스트의 재현 능력에 대한 언어 모델의 세밀한 제어 필요성을 강조하며, 저작권 준수를 위한 경량의 사후 훈련 방법인 Obliviate를 제시합니다. Obliviate는 특정 시퀀스의 정확한 재현을 외과적으로 억제하면서 의미론적 이해는 유지하는 방법으로, 암기된 구절을 식별한 후 Kullback-Leibler divergence penalty를 통해 목표 토큰의 출력 분포를 최소한으로 조정하여 정확한 재현 확률을 낮추는 동시에, 일관성 손실을 적용하여 모델의 유창성과 작업 성능을 유지합니다. LLaMA-3.1, LLaMA-3.1-Instruct, Qwen-2.5, Yi-1.5와 같은 여러 모델에서 합성 암기 벤치마크와 저작권이 있는 구절(예: 모비딕, 프랑켄슈타인, 이상한 나라의 앨리스, 레 미제라블)을 사용하여 평가한 결과, verbatim 재현율을 두 자릿수 감소시키면서(예: 수백 단어에서 12단어 미만) HellaSwag, MMLU, TruthfulQA, Winogrande에서의 정확도 저하는 1% 이내로 제한했습니다. MUSE 및 CoTaEval 벤치마크를 사용하여 다른 unlearning 및 저작권 기술과 비교 벤치마킹을 수행하였고, 배포된 LLMs의 저작권 준수를 위한 실용적이고 고충실도의 솔루션으로 Obliviate를 제시합니다.