Knowledge Distillation (KD)을 통해 대형 모델을 압축하는 과정에서 제3자 저장소에서 다운로드한 사전 훈련된 "교사" 모델에 의존하는 것은 백도어 공격과 같은 심각한 보안 위험을 초래합니다. 기존 KD 백도어 방법은 복잡하고 계산 집약적입니다. 이 연구는 그러한 복잡성이 필요한지 의문을 제기하며, 감지하기 어렵고 적대적인 효과가 무시할 수 있는 "약한" 트리거를 구축합니다. 이 연구는 BackWeak을 제안하며, 이는 간단하고 대리 모델이 없는 공격 패러다임입니다. BackWeak은 매우 작은 학습률을 사용하여 약한 트리거로 양성 교사를 미세 조정함으로써 강력한 백도어를 삽입할 수 있음을 보여줍니다. 이 섬세한 미세 조정만으로도 피해자의 표준 증류 과정에서 다양한 학생 아키텍처로 안정적으로 전송되는 백도어를 임베딩하여 높은 공격 성공률을 얻을 수 있습니다.