대규모 언어 모델(LLM)에서 개인 데이터를 보호하고 유해한 지식을 제거하는 데 필수적인 Unlearning(잊어버리기) 기술의 중요성을 강조합니다. 기존 방법론은 fine-tuning을 통해 unlearning 효율성과 일반적인 언어 능력을 균형 있게 유지하지만, 대부분 학습 또는 유지를 위한 데이터에 접근해야 하는 제약이 있습니다. 이러한 한계를 극복하기 위해, 본 논문은 DRAGON(Detect-Reasoning Augmented GeneratiON)을 제안합니다. 이는 in-context chain-of-thought (CoT) 지침을 활용하여 추론 전에 배포된 LLM을 보호하는 체계적인 추론 기반 프레임워크입니다. DRAGON은 기본 모델을 수정하는 대신, LLM의 내재된 지시 따르기 능력을 활용하고, 유지 데이터 없이 잊을 가치가 있는 프롬프트를 식별하는 경량 감지 모듈을 도입합니다. 이후 이러한 프롬프트는 안전하고 정확한 in-context 개입을 위해 전용 CoT guard 모델을 거칩니다. 또한, unlearning 성능과 지속적인 unlearning 설정을 평가하기 위한 새로운 지표를 제시합니다. 세 가지 대표적인 unlearning task에 대한 광범위한 실험을 통해 DRAGON의 효과를 입증하고, 강력한 unlearning 능력, 확장성, 실제 시나리오에서의 적용 가능성을 보여줍니다.