본 논문은 음성 표현 모델의 파인튜닝 과정에서 발생하는 과적합 문제와 이로 인한 task 간 일반화 성능 저하를 해결하기 위해 Speech-FT라는 새로운 두 단계 파인튜닝 프레임워크를 제안합니다. Speech-FT는 첫 번째 단계에서 표현의 변화를 최소화하는 파인튜닝을 수행하고, 두 번째 단계에서 사전 훈련된 모델과의 가중치 공간 보간을 통해 task 간 일반화 성능을 복원합니다. HuBERT, wav2vec 2.0, DeCoAR 2.0, WavLM Base+ 등 다양한 모델과 다양한 파인튜닝 시나리오(지도 학습, 비지도 학습, 다중 작업 학습)에서 기존 방법들보다 우수한 성능과 task 간 일반화 성능을 보이며, 특히 SUPERB 벤치마크에서 상당한 성능 향상을 달성했습니다. 예를 들어, HuBERT를 자동 음성 인식에 파인튜닝하는 경우, Speech-FT는 phone error rate를 5.17%에서 3.94%로, word error rate를 6.38%에서 5.75%로 감소시키고, speaker identification 정확도를 81.86%에서 84.11%로 향상시켰습니다.