Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Listen Like a Teacher: Mitigating Whisper Hallucinations using Adaptive Layer Attention and Knowledge Distillation

Created by
  • Haebom
Category
Empty

저자

Kumud Tripathi, Aditya Srinivas Menon, Aman Gaurav, Raj Prakash Gohil, Pankaj Wasnik

개요

본 논문은 오픈소스 자동 음성 인식 시스템인 Whisper 모델의 환각 오류를 해결하기 위한 방법을 제시한다. 특히 잡음 환경에서의 성능 저하 문제를 해결하고자, Adaptive Layer Attention (ALA)을 활용하여 인코더의 강건성을 향상시키고, multi-objective knowledge distillation (KD) 프레임워크를 통해 환각을 억제하는 2단계 아키텍처를 제안한다. ALA는 인코더 레이어를 의미적으로 일관된 블록으로 그룹화하고, multi-head attention 모듈을 통해 저수준 및 고수준 특징을 결합하여 보다 강력한 인코딩을 수행한다. KD 프레임워크는 학생 모델이 깨끗한 입력의 교사 모델과 의미 및 주의 분포를 일치시키도록 학습시킨다. 잡음 환경에서의 실험을 통해 환각 감소와 단어 오류율 감소를 확인했으며, 깨끗한 음성 데이터에 대한 성능은 유지했다.

시사점, 한계점

ALA와 KD를 결합한 새로운 아키텍처를 통해 Whisper 모델의 잡음 환경에서의 환각 문제를 효과적으로 해결했다.
환각 감소와 단어 오류율 감소를 동시에 달성하여 Whisper 모델의 신뢰성을 향상시켰다.
다양한 언어 및 제로샷 설정에서 Whisper 모델의 강점을 유지하면서 성능을 개선했다.
모델 자체를 수정하여 환각을 직접적으로 완화하는 새로운 접근 방식을 제시했다.
한계점:
특정 잡음 환경에 대한 실험 결과만 제시되어, 다양한 잡음 유형에 대한 일반화 성능을 추가 검증할 필요가 있다.
ALA 및 KD의 구체적인 하이퍼파라미터 설정에 대한 자세한 분석이 부족하다.
다른 ASR 모델과의 성능 비교를 통해 제안하는 방법의 우수성을 추가적으로 입증할 필요가 있다.
👍