본 논문은 시각-언어 모델(VLM)을 로봇 시스템에 통합하여 더 직관적인 상호 작용을 가능하게 하는 연구에 대해 다룹니다. 기존 VLM 접근 방식은 사용자 특이성을 고려하지 않고 일반적인 상호 작용 패러다임에 의존하여 개인의 행동, 맥락 또는 사회적 정서적 뉘앙스를 고려하지 못하는 한계를 지닙니다. 본 논문에서는 이러한 문제를 해결하기 위해 다중 모달 사용자 모델링과 편향 인식 최적화를 통합한 홀리스틱 프레임워크인 User-VLM 360°를 제안합니다. 이 프레임워크는 시각-언어 신호를 사용하여 실시간으로 상호 작용을 적응시키는 사용자 인식 조정, 선호도 최적화를 통한 편향 완화, 그리고 인구 통계, 감정 및 관계 메타데이터로 주석이 달린 360° 사회 정서적 상호 작용 데이터셋을 특징으로 합니다. 실험 결과, 개인화된 VQA에서 +35.3% F1, 얼굴 특징 이해에서 +47.5% F1, 편향 감소 15%, 기준선 대비 30배 속도 향상을 보였습니다. Pepper 로봇에 배포하여 다양한 사용자에 대한 실시간 적응성을 검증했습니다. 매개변수 효율적인 3B/10B 모델과 책임 있는 적응을 위한 윤리적 검증 프레임워크를 오픈소스로 공개합니다.