본 논문은 전체 재훈련 없이 훈련된 분류기에서 전체 클래스를 삭제하는 경량 기법인 출력 재가중치 부여 비학습 방법(RWFT)을 제시합니다. 훈련된 모델에서 특정 클래스를 잊는 것은 사용자 삭제 권한을 강화하고 유해하거나 편향된 예측을 완화하는 데 필수적입니다. 전체 재훈련은 비용이 많이 들며, 기존의 비학습 방법은 비학습 클래스의 샘플을 예측할 때 재훈련된 모델의 동작을 복제하지 못합니다. 본 논문에서는 멤버십 추론 공격(MIA-NN)의 변형을 설계하여 이러한 방법들에 대해 비학습 클래스를 성공적으로 드러내는 것을 증명합니다. 그리고 MIA-NN에 강건한, 잊혀진 클래스의 샘플에 대한 예측 확률의 간단한 재분배를 제안합니다. 또한, 향후 방법들이 새로운 공격에 취약해지는 것을 방지하기 위해 예측 확률의 총 변동(TV) 거리에 기반한 새로운 지표를 제시합니다. 기존의 머신 비학습 최첨단 기준과의 광범위한 실험을 통해 제안된 접근 방식이 기존 연구에서 사용된 두 가지 지표와 본 논문에서 제안하는 새로운 지표 모두에서 전체 재훈련 결과와 일치함을 보여줍니다. 최첨단 방법과 비교하여 기존 지표에서는 2.79%, 새로운 TV 기반 지표에서는 111.45% 향상을 보였습니다.