Introducing Visual Scenes and Reasoning: A More Realistic Benchmark for Spoken Language Understanding
Created by
Haebom
Category
Empty
저자
Di Wu, Liting Jiang, Ruiyu Fang, Bianjing, Hongyan Xie, Haoxiang Su, Hao Huang, Zhongjiang He, Shuangyong Song, Xuelong Li
개요
본 논문은 실용적인 SLU (Spoken Language Understanding)를 개선하기 위해, 시각 정보와 명시적인 추론을 통합한 새로운 SLU 데이터셋인 VRSLU를 소개합니다. VRSLU는 기존 연구의 한계점인 과도하게 이상화된 상황 맥락 표현과, 추론 과정의 부재를 해결하고자 합니다. 시각 정보는 GPT-4o와 FLUX.1-dev를 사용하여 사용자의 환경과 상태를 반영하는 이미지를 생성하고, 추론은 GPT-4o를 사용하여 예측된 레이블에 대한 설명을 생성하여 데이터의 현실성을 높이고 모델의 성능 및 해석 가능성을 향상시킵니다. 또한, 예측된 레이블과 그에 따른 추론을 생성하는 LR-Instruct라는 지침 템플릿을 제안하여 추론 편향 문제를 완화합니다.