본 논문은 대규모 언어 모델(LLM)이 의료 분야에서 훈련 데이터의 기억으로 인한 개인 정보 침해 위험을 해결하기 위해 개발된 선택적 지식 삭제를 위한 계층적 이중 전략 프레임워크를 제시한다. 이 프레임워크는 기하학적 제약 기울기 업데이트를 통해 특정 매개변수를 선택적으로 조절하고, 개념 인식 토큰 수준 개입을 통해 보존 및 삭제 대상 토큰을 구분한다. MedMCQA (수술) 및 MHQA (불안, 우울증, 외상) 데이터 세트에 대한 포괄적인 평가 결과, 82.7%의 삭제율과 88.5%의 지식 보존을 달성했으며, 0.1%의 매개변수만 수정하여 규제 준수, 감사 가능성 및 윤리적 기준에 부합하는 강력한 개인 정보 보호를 제공한다.