LoTUS: Large-Scale Machine Unlearning with a Taste of Uncertainty
Created by
Haebom
Category
Empty
저자
Christoforos N. Spartalis, Theodoros Semertzidis, Efstratios Gavves, Petros Daras
개요
LoTUS는 사전 훈련된 모델에서 훈련 샘플의 영향을 제거하여 처음부터 다시 훈련할 필요가 없는 새로운 기계 언러닝(MU) 방법입니다. LoTUS는 정보 이론적 경계까지 모델의 예측 확률을 부드럽게 하여 데이터 암기에서 비롯되는 과신을 완화합니다. Transformer와 ResNet18 모델에 대해 5개의 공개 데이터 세트에서 8개의 기준과 비교하여 LoTUS를 평가했습니다. 기존 MU 벤치마크를 넘어, 다시 훈련이 불가능한 대규모 데이터 세트인 ImageNet1k에서 언러닝을 평가하여 실제 조건을 시뮬레이션했습니다. 또한 실제 조건에서 평가를 가능하게 하는 새로운 Retrain-Free Jensen-Shannon Divergence (RF-JSD) 메트릭을 도입했습니다. 실험 결과, LoTUS는 효율성과 효과 측면에서 최첨단 방법을 능가하는 것으로 나타났습니다. 코드는 https://github.com/cspartalis/LoTUS 에서 확인할 수 있습니다.