본 논문은 대규모 언어 모델(LLM)에서 민감하거나 쓸모없는 데이터를 선택적으로 제거해야 할 때 개인 정보 보호, 윤리 및 규정 준수를 유지하는 데 어려움이 있음을 다룹니다. 모델을 처음부터 다시 훈련하는 것은 계산상 불가능하므로 효율적인 대안이 필요합니다. SemEval 2025 Task 4의 일환으로, 본 연구는 이러한 문제를 해결하기 위해 LLM에서 선택적 언러닝(unlearning)의 적용에 초점을 맞춥니다. 본 논문에서는 주로 전역 가중치 수정을 활용하여 언러닝의 효과, 지식 유지 및 언러닝 후 타겟 모델의 유용성 간의 균형을 달성하기 위한 실험과 결과를 제시합니다. 또한 작업별 평가 메커니즘, 결과 및 과제에 대해 자세히 설명합니다. 7B 및 1B 타겟 모델에 대한 테스트 세트에서 각각 0.409와 0.389의 종합 점수를 달성하여 검증 가능한 LLM 언러닝에서 유망한 결과를 보여줍니다.