Sign In

Single-Teacher View Augmentation: Boosting Knowledge Distillation via Angular Diversity

Created by
  • Haebom
Category
Empty

저자

Seonghoon Yu, Dongjun Nam, Dina Katabi, Jeany Son

개요

본 논문은 지식 증류(Knowledge Distillation, KD)의 성능 향상을 위해 단일 교사 모델에 여러 분기를 부착하여 다양한 관점을 생성하는 비용 효율적인 지식 증강 방법을 제안합니다. 이를 위해, 원본 교사 출력에 근접하면서 증강된 관점 간의 각도를 최대화하는 제약 조건이 있는 상호 각도 다양성 손실과 원본 출력 주변의 균등한 관점 분포를 장려하는 내부 각도 다양성 손실을 도입합니다. 이러한 각도적으로 다양한 관점의 앙상블 지식을 학생 모델에 증류하며, 이론적 및 실험적으로 기존 지식 증강 방법보다 우수함을 보입니다. 또한, 제안하는 방법은 다른 KD 프레임워크와 호환되어 일반화 성능을 일관되게 향상시킬 수 있습니다.

시사점, 한계점

시사점:
단일 교사 모델에서 여러 관점을 생성하여 지식 증류의 효율성을 향상시킴.
각도 다양성 손실을 통해 의미 있는 관점 다양성을 확보함.
기존 KD 프레임워크에 쉽게 적용 가능하며, 일반화 성능 향상을 가져옴.
이론적 분석을 통해 방법의 효과를 뒷받침함.
한계점:
구체적인 한계점은 논문에 명시되지 않음. (논문 요약 정보에 한계점 관련 내용 부재)
👍