Sign In

InterChat: Enhancing Generative Visual Analytics using Multimodal Interactions

Created by
  • Haebom
Category
Empty

저자

Juntong Chen, Jiang Wu, Jiajing Guo, Vikram Mohanty, Xueming Li, Jorge Piazentin Ono, Wenbin He, Liu Ren, Dongyu Liu

개요

본 논문은 대규모 언어 모델(LLM) 기반의 생성형 시각적 분석 시스템에서 사용자의 분석 및 상호작용 의도를 정확하게 해석하는 데 어려움이 있음을 지적하며, 이를 해결하기 위해 다중 모달 상호작용을 활용한 생성형 시각적 분석 시스템인 InterChat을 제시합니다. InterChat은 자연어 입력과 시각적 요소의 직접 조작을 결합하여 사용자 의도를 정확하게 전달하고 시각적으로 주도되는 탐색적 데이터 분석을 지원합니다. 효과적인 프롬프트 엔지니어링, 상황에 맞는 상호작용 연결, 직관적인 시각화 및 상호작용 디자인을 통해 사용자 상호작용과 LLM 기반 시각화 간의 간극을 해소하여 해석력과 사용성을 향상시킵니다. 두 가지 사용 시나리오, 사용자 연구, 전문가 피드백을 포함한 광범위한 평가를 통해 InterChat의 효과를 검증하였으며, 복잡한 시각적 분석 작업 처리의 정확성과 효율성이 크게 향상되었음을 보여줍니다.

시사점, 한계점

시사점:
다중 모달 상호작용을 통한 생성형 시각적 분석 시스템의 새로운 가능성 제시
LLM 기반 시각적 분석 시스템의 사용성 및 해석력 향상
복잡한 시각적 분석 작업의 정확성 및 효율성 증대
사용자 의도를 정확하게 파악하고 전달하는 효과적인 상호작용 방식 제시
한계점:
InterChat 시스템의 확장성 및 일반화 가능성에 대한 추가적인 연구 필요
다양한 데이터 유형 및 분석 작업에 대한 적용 가능성 검증 필요
사용자 연구의 규모 및 참여자 구성에 대한 제한
특정 프롬프트 엔지니어링 및 시각화 디자인에 대한 의존성
👍