LoTUS는 사전 훈련된 모델에서 훈련 샘플의 영향을 제거하는 새로운 기계 학습 삭제(Machine Unlearning, MU) 방법으로, 처음부터 다시 훈련할 필요가 없습니다. LoTUS는 데이터 암기로 인한 과신을 완화하기 위해 정보 이론적 경계까지 모델의 예측 확률을 부드럽게 합니다. Transformer 및 ResNet18 모델에서 5개의 공개 데이터 세트에 대해 8가지 기준 방법과 비교하여 LoTUS를 평가했습니다. 기존 MU 벤치마크를 넘어, 다시 훈련을 어렵게 만드는 대규모 데이터 세트(ImageNet1k)에서 삭제 학습을 평가하여 실제 조건을 시뮬레이션했습니다. 또한, 실제 조건에서 평가를 가능하게 하는 새로운 재훈련 없는 Jensen-Shannon Divergence (RF-JSD) 지표를 도입했습니다. 실험 결과, LoTUS는 효율성과 효과 측면에서 최첨단 방법을 능가하는 것으로 나타났습니다. 코드는 GitHub에서 제공됩니다.