Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Using Self-Supervised Auxiliary Tasks to Improve Fine-Grained Facial Representation

Created by
  • Haebom
Category
Empty

저자

Mahdi Pourmirzaei, Gholam Ali Montazer, Farzaneh Esmaili

개요

본 논문은 전이 학습의 효과가 미세 감정 인식(FER) 문제에서 얼마나 유효한지를 먼저 정량적으로 평가하고, AffectNet 데이터셋에서 충분한 강도의 데이터 증강을 사용하면 ImageNet 사전 학습된 모델을 fine-tuning하는 것과 동등하거나 더 나은 성능을 달성할 수 있음을 보여줍니다. 이러한 결과를 바탕으로, 본 논문은 inference-time에서 모델 구조 변경 없이 지도 학습(SL)과 자기 지도 학습(SSL) 목적 함수를 결합하는 Hybrid Multi-Task Learning (HMTL)을 제안합니다. HMTL은 부분 인식 및 표정 관련 특징을 강화하기 위해 퍼즐 및 지각 손실을 사용한 inpainting의 두 가지 사전 텍스트 작업을 활용합니다. AffectNet에서 HMTL은 8가지 감정 인식에서 최첨단 정확도를 달성하며, 저용량 데이터 환경에서 더 큰 이점을 제공합니다. 기존의 SSL 사전 학습보다 HMTL이 더 강력한 성능을 보이며, FER 외에도 head pose 추정 및 성별 인식과 같은 세분화된 얼굴 분석 작업의 성능을 향상시킵니다.

시사점, 한계점

시사점:
충분한 데이터 증강을 통해 ImageNet 사전 학습 없이도 우수한 FER 성능을 달성할 수 있음을 보여줌.
HMTL 기법을 통해 지도 학습과 자기 지도 학습을 효과적으로 결합하여 FER 성능을 향상시킴.
HMTL은 저용량 데이터 환경에서 특히 강점을 보임.
추론 시간에 추가적인 계산 비용 없이 성능을 향상시킬 수 있는 효과적인 방법 제시.
FER뿐만 아니라 다른 세분화된 얼굴 분석 작업에도 적용 가능함.
한계점:
논문에서 구체적인 한계점은 명시되지 않음.
👍