Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Speech-FT: Merging Pre-trained And Fine-Tuned Speech Representation Models For Cross-Task Generalization

Created by
  • Haebom

저자

Tzu-Quan Lin, Wei-Ping Huang, Hao Tang, Hung-yi Lee

개요

본 논문은 음성 표현 모델의 파인튜닝 과정에서 발생하는 과적합 문제와 이로 인한 task 간 일반화 성능 저하를 해결하기 위해 Speech-FT라는 새로운 두 단계 파인튜닝 프레임워크를 제안합니다. Speech-FT는 첫 번째 단계에서 표현의 변화를 최소화하는 파인튜닝을 수행하고, 두 번째 단계에서 사전 훈련된 모델과의 가중치 공간 보간을 통해 task 간 일반화 성능을 복원합니다. HuBERT, wav2vec 2.0, DeCoAR 2.0, WavLM Base+ 등 다양한 모델과 다양한 파인튜닝 시나리오(지도 학습, 비지도 학습, 다중 작업 학습)에서 기존 방법들보다 우수한 성능과 task 간 일반화 성능을 보이며, 특히 SUPERB 벤치마크에서 상당한 성능 향상을 달성했습니다. 예를 들어, HuBERT를 자동 음성 인식에 파인튜닝하는 경우, Speech-FT는 phone error rate를 5.17%에서 3.94%로, word error rate를 6.38%에서 5.75%로 감소시키고, speaker identification 정확도를 81.86%에서 84.11%로 향상시켰습니다.

시사점, 한계점

시사점:
음성 표현 모델의 파인튜닝 시 과적합 문제와 task 간 일반화 성능 저하를 효과적으로 해결하는 새로운 방법 제시.
기존 가중치 제약 기반 파인튜닝 방법들보다 우수한 성능과 task 간 일반화 성능을 달성.
다양한 모델과 파인튜닝 시나리오에 적용 가능한 일반적인 프레임워크 제공.
SUPERB 벤치마크에서 상당한 성능 향상 확인.
한계점:
본 논문에서는 구체적인 한계점이 명시적으로 언급되지 않았습니다. 추가적인 실험이나 분석을 통해 한계점을 탐색할 필요가 있습니다. 예를 들어, 계산 비용 증가, 특정 데이터셋이나 모델에 대한 의존성 등이 추가적인 연구를 통해 밝혀질 수 있습니다.
👍