근사 머신 언러닝은 전체 재학습의 실용적인 대안으로, 훈련된 모델에서 특정 데이터 포인트의 영향을 효율적으로 제거하는 것을 목표로 한다. 그러나 사전 및 사후 언러닝 모델에 접근할 수 있는 적대자는 멤버십 추론 또는 데이터 재구성을 위해 그 차이를 악용할 수 있다는 점에서 개인 정보 보호 위험을 초래한다. 본 논문에서는 이러한 취약점이 잊혀진 데이터 샘플의 큰 기울기 노름과 언러닝된 매개변수가 원래 모델에 근접해 있다는 두 가지 요인에서 발생함을 보여준다. 이러한 심각성을 입증하기 위해, 언러닝 특정 멤버십 추론 및 재구성 공격을 제안하여 여러 최첨단 방법(예: NGP, SCRUB)이 여전히 취약하다는 것을 보여준다. 이 유출을 완화하기 위해, 예측을 유지하면서 잊혀진 데이터의 기울기 에너지를 줄이고 매개변수 분산을 증가시키는 플러그 앤 플레이 텔레포테이션 방어 기법인 WARP를 도입한다. 이 재매개변수화는 잊혀진 데이터의 신호를 모호하게 하여 공격자가 잊혀진 샘플을 비멤버와 구별하거나 재구성을 통해 복구하는 것을 더 어렵게 만든다. 6가지 언러닝 알고리즘에 걸쳐, 제안된 방법은 일관된 개인 정보 보호 이점을 달성하여, 적대적 이점(AUC)을 블랙 박스 환경에서 최대 64%, 화이트 박스 환경에서 92%까지 감소시키면서 유지된 데이터에 대한 정확도를 유지한다.