본 논문은 실제 환경에 배포된 대규모 언어 모델(LLM)이 민감하거나, 오래되었거나, 독점적인 정보를 학습 해제해야 할 필요성에 직면한 문제를 다룬다. 기존의 학습 해제 방법이 잊기와 유지를 정규화된 상호 작용으로 취급하여 불안정한 최적화와 유지 데이터의 성능 저하를 초래하는 문제를 해결하고자, 본 논문은 LLM 학습 해제를 제약 조건 최적화 문제로 새롭게 정의한다. 구체적으로, 잊기는 로짓-마진 평탄화 손실을 통해, 유지는 별도의 유지 세트에 대한 하드 제약 조건을 통해 강제된다. 제안된 방법은 기존 엔트로피 기반 목적 함수보다 수치적으로 안정적이며, 더 효율적이고 견고한 최적화를 가능하게 한다. 제약 조건 문제는 확장 가능한 프라이멀-듀얼 알고리즘을 사용하여 해결되며, 듀얼 변수의 동역학을 통해 잊기와 유지를 조절한다. 다양한 LLM 아키텍처에서 TOFU 및 MUSE 벤치마크를 통해 제안하는 방법이 기존 방법들을 능가하며, 목표 정보를 효과적으로 제거하고 다운스트림 유틸리티를 유지함을 입증한다.