Sign In

USER-VLM 360: Personalized Vision Language Models with User-aware Tuning for Social Human-Robot Interactions

Created by
  • Haebom
Category
Empty

저자

Hamed Rahimi, Adil Bahaj, Mouad Abrini, Mahdi Khoramshahi, Mounir Ghogho, Mohamed Chetouani

개요

본 논문은 시각-언어 모델(VLM)을 로봇 시스템에 통합하여 더 직관적인 상호 작용을 가능하게 하는 연구에 대해 다룹니다. 기존 VLM 접근 방식은 사용자 특이성을 고려하지 않고 일반적인 상호 작용 패러다임에 의존하여 개인의 행동, 맥락 또는 사회적 정서적 뉘앙스를 고려하지 못하는 한계를 지닙니다. 본 논문에서는 이러한 문제를 해결하기 위해 다중 모달 사용자 모델링과 편향 인식 최적화를 통합한 홀리스틱 프레임워크인 User-VLM 360°를 제안합니다. 이 프레임워크는 시각-언어 신호를 사용하여 실시간으로 상호 작용을 적응시키는 사용자 인식 조정, 선호도 최적화를 통한 편향 완화, 그리고 인구 통계, 감정 및 관계 메타데이터로 주석이 달린 360° 사회 정서적 상호 작용 데이터셋을 특징으로 합니다. 실험 결과, 개인화된 VQA에서 +35.3% F1, 얼굴 특징 이해에서 +47.5% F1, 편향 감소 15%, 기준선 대비 30배 속도 향상을 보였습니다. Pepper 로봇에 배포하여 다양한 사용자에 대한 실시간 적응성을 검증했습니다. 매개변수 효율적인 3B/10B 모델과 책임 있는 적응을 위한 윤리적 검증 프레임워크를 오픈소스로 공개합니다.

시사점, 한계점

시사점:
사용자 중심의 적응형 로봇 상호 작용을 위한 새로운 프레임워크 제시
실시간 사용자 인식 조정 및 편향 완화 기술 개발
다양한 사용자를 위한 사회 정서적 상호 작용 데이터셋 구축 및 공개
매개변수 효율적인 모델과 윤리적 검증 프레임워크 제공
다양한 벤치마크에서 기존 기술 대비 성능 향상 확인
실제 로봇 플랫폼에서의 실시간 적응성 검증
한계점:
제안된 프레임워크의 일반화 성능에 대한 추가 연구 필요
더욱 다양하고 광범위한 사용자 데이터셋 확보 필요
편향 완화 기술의 한계 및 개선 방향에 대한 추가 연구 필요
실제 환경에서의 장기적인 안정성 및 견고성 평가 필요
👍