본 논문은 저작권 침해 위험을 완화하기 위한 선택적 잊기 프레임워크인 SUV(Selective Unlearning for Verbatim data)를 제시합니다. SUV는 대규모 언어 모델(LLM)이 저작권이 있는 콘텐츠를 기억하는 것을 방지하기 위해, 저작권 침해 사례를 담은 데이터셋을 구성하고, Direct Preference Optimization (DPO)을 이용하여 저작권이 있는 내용을 타당하고 일관성 있는 대안으로 대체합니다. DPO로 인한 성능 저하를 완화하기 위해 기울기 투영과 피셔 정보 정규화를 통합하고, 500권의 유명 도서 데이터셋을 사용하여 SUV의 효과를 검증합니다. 실험 결과, SUV는 저작권 내용의 기억을 크게 줄이면서 관련 없는 작업의 성능에는 거의 영향을 미치지 않는다는 것을 보여줍니다.