본 논문은 지식 증류(Knowledge Distillation, KD)의 성능 향상을 위해 단일 교사 모델에 여러 분기를 부착하여 다양한 관점을 생성하는 비용 효율적인 지식 증강 방법을 제안합니다. 이를 위해, 원본 교사 출력에 근접하면서 증강된 관점 간의 각도를 최대화하는 제약 조건이 있는 상호 각도 다양성 손실과 원본 출력 주변의 균등한 관점 분포를 장려하는 내부 각도 다양성 손실을 도입합니다. 이러한 각도적으로 다양한 관점의 앙상블 지식을 학생 모델에 증류하며, 이론적 및 실험적으로 기존 지식 증강 방법보다 우수함을 보입니다. 또한, 제안하는 방법은 다른 KD 프레임워크와 호환되어 일반화 성능을 일관되게 향상시킬 수 있습니다.