Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

NVSpeech: An Integrated and Scalable Pipeline for Human-Like Speech Modeling with Paralinguistic Vocalizations

Created by
  • Haebom

저자

Huan Liao, Qinke Ni, Yuancheng Wang, Yiheng Lu, Haoyue Zhan, Pengyuan Xie, Qiang Zhang, Zhizheng Wu

개요

NVSpeech는 자연스러운 음성 의사소통에 필수적인 비언어적 발성(웃음, 숨소리, '음', '아'와 같은 감탄사 등)의 인식과 합성을 위한 통합적이고 확장 가능한 파이프라인입니다. 수동 주석이 달린 48,430개의 음성 발화(18개의 단어 수준 비언어적 범주) 데이터셋을 제시하고, 비언어적 단서를 인라인 디코딩 토큰으로 처리하여 어휘 및 비언어적 전사를 함께 수행하는 비언어적 인식 ASR 모델을 개발했습니다. 이 모델을 이용하여 174,179개 발화(573시간)의 대규모 중국어 데이터셋을 자동 주석 처리하였습니다. 또한, 사람이 주석을 단 데이터와 자동으로 주석을 단 데이터 모두를 사용하여 제로샷 TTS 모델을 미세 조정하여 비언어적 발성을 명시적으로 제어하고, 사람과 같은 음성 합성을 위해 임의의 토큰 위치에 문맥 인식 삽입을 가능하게 했습니다. NVSpeech는 표현력 있는 음성 모델링을 위한 최초의 공개적이고 대규모의 단어 수준 주석 파이프라인을 제공하며, 인식과 합성을 확장 가능하고 제어 가능한 방식으로 통합합니다. 데이터셋과 오디오 데모는 https://nvspeech170k.github.io/ 에서 확인할 수 있습니다.

시사점, 한계점

시사점:
비언어적 발성을 포함한 자연스러운 음성 인식 및 합성 기술 발전에 기여.
대규모 중국어 음성 데이터셋 구축 및 공개를 통한 연구 활성화.
단어 수준 정렬 및 비언어적 단서를 포함한 정확한 음성 전사 가능.
문맥 인식 비언어적 발성 제어를 통한 더욱 자연스러운 음성 합성 가능.
인식과 합성을 통합한 확장 가능하고 제어 가능한 파이프라인 제공.
한계점:
현재 중국어에 국한된 데이터셋 및 모델. 다른 언어로의 확장 필요.
자동 주석 데이터의 정확도 및 신뢰도에 대한 추가적인 검증 필요.
비언어적 발성의 다양성 및 복잡성을 완벽하게 반영하지 못할 가능성.
제로샷 TTS 모델의 성능 향상을 위한 추가적인 연구 필요.
👍