[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Leveraging Vision-Language Models for Visual Grounding and Analysis of Automotive UI

Created by
  • Haebom

저자

Benjamin Raphael Ernhofer, Daniil Prokhorov, Jannica Langner, Dominik Bollmann

개요

본 논문은 자동차 인포테인먼트 시스템의 다양한 UI 디자인 변화에 적응할 수 있는 비전-언어 프레임워크를 제시한다. 998개 이미지와 4,208개의 어노테이션으로 구성된 오픈소스 데이터셋 AutomotiveUI-Bench-4K를 공개하고, 합성 데이터 파이프라인을 통해 학습 데이터를 생성한다. Molmo-7B 기반 모델을 LoRa를 이용하여 미세 조정하고, 파이프라인에서 생성된 추론, 시각적 기반, 평가 기능을 통합하여 ELAM(Evaluative Large Action Model)을 개발하였다. ELAM은 AutomotiveUI-Bench-4K에서 우수한 성능을 보이며, 특히 ScreenSpot 과제에서 기준 모델 대비 +5.6% 향상된 80.8%의 평균 정확도를 달성, 데스크탑, 모바일, 웹용 특화 모델과 유사하거나 뛰어넘는 성능을 보였다. 본 연구는 데이터 수집 및 미세 조정을 통한 자동차 UI 이해 및 상호 작용 분야의 AI 발전 방향을 제시하며, 비용 효율적인 방법으로 소비자급 GPU에서도 배포 가능한 모델을 제공한다.

시사점, 한계점

시사점:
자동차 인포테인먼트 시스템의 UI 이해 및 상호 작용을 위한 효율적인 비전-언어 프레임워크 제시
오픈소스 데이터셋 AutomotiveUI-Bench-4K 공개를 통한 연구 활성화
LoRa 기반 미세 조정을 통한 비용 효율적인 모델 개발 및 소비자급 GPU 배포 가능성
다양한 UI 디자인에 대한 강력한 일반화 성능 (ScreenSpot에서 우수한 성능 달성)
한계점:
데이터셋 규모의 제한 (998개 이미지)
실제 운전 환경에서의 성능 검증 부족
특정 모델(Molmo-7B)에 대한 의존성
합성 데이터 파이프라인의 일반화 가능성 및 한계에 대한 추가 연구 필요
👍