Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Improving Group Fairness in Knowledge Distillation via Laplace Approximation of Early Exits

Created by
  • Haebom
Category
Empty

저자

Edvin Fasth, Sagar Singh

개요

지식 증류(KD)는 대규모 사전 학습된 교사 모델을 사용하여 작고 효율적인 학생 모델을 학습하는 강력한 기법이지만, 학생 모델이 표면적인 특징만 학습하여 그룹 공정성 저하를 야기할 수 있다는 문제점이 있다. 본 논문은 조기 종료 신경망(EENN)과 라플라스 근사 기반의 불확실성 추정을 활용하여 이 문제를 해결하고자 한다. 라플라스 근사는 마진 기반 방법보다 어렵거나 모호한 인스턴스를 더욱 효과적으로 식별하여, 인스턴스 가중치를 조정함으로써 교차 엔트로피 및 증류 손실을 개선하고 그룹 공정성을 향상시킨다. MultiNLI 데이터셋과 Bert 기반 모델을 사용하여 제안된 방법의 성능을 평가한다.

시사점, 한계점

시사점: 라플라스 근사 기반의 불확실성 추정을 활용하여 지식 증류 과정에서 그룹 공정성을 향상시킬 수 있음을 보여줌. 마진 기반 방법보다 더욱 효과적인 어려운 인스턴스 식별 가능성 제시.
한계점: MultiNLI 데이터셋과 Bert 기반 모델에 대한 실험 결과만 제시되어, 다른 데이터셋이나 모델에 대한 일반화 가능성 검증 필요. 라플라스 근사의 계산 비용 증가 가능성. 다양한 그룹 공정성 지표에 대한 추가적인 분석 필요.
👍