본 논문은 다양한 음성 중심 멀티미디어 애플리케이션에서 기계가 음성 언어를 이해할 수 있도록 하는 음성 언어 이해(SLU)에 초점을 맞추고 있습니다. SLU는 자동 음성 인식(ASR), 음성 개체명 인식(NER), 음성 감정 분석(SA) 등 여러 작업을 포함합니다. 기존 방법들은 각 작업에 대해 별도의 모델 아키텍처를 사용하여 시스템 복잡성을 증가시키고 작업 간 상호 작용을 제한하며 여러 작업에서 사용 가능한 이종 데이터 세트를 완전히 활용하지 못하는 한계를 가지고 있습니다. 본 논문에서는 이러한 한계를 해결하기 위해 단일 아키텍처 내에서 여러 SLU 작업을 공동으로 모델링하는 통합 프레임워크인 UniSLU를 제안합니다. UniSLU는 다양한 SLU 작업에 대한 통합된 표현을 제안하여 여러 작업에 걸쳐 이종 데이터 세트를 완전히 활용할 수 있도록 합니다. 이 표현을 기반으로 ASR, 음성 NER 및 SA 작업을 공동으로 모델링하는 통합 생성 방법을 제안하여 작업 상호 작용을 향상시키고 강력한 생성 기능을 활용하기 위해 대규모 언어 모델과의 원활한 통합을 가능하게 합니다. 공개 SLU 데이터 세트에 대한 광범위한 실험을 통해 제안된 방법의 효과를 입증하고 여러 벤치마크 방법에 비해 우수한 SLU 성능을 달성함을 보여줍니다. 모든 코드와 모델을 GitHub에 공개하여 향후 연구를 촉진할 예정입니다.