Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Enhancing Explainability with Multimodal Context Representations for Smarter Robots

Created by
  • Haebom
Category
Empty

저자

Anargh Viswanath, Lokesh Veeramacheneni, Hendrik Buschmeier

개요

본 논문은 인간-로봇 상호작용(HRI)에서 로봇의 설명 가능성과 사용자 중심 설계를 개선하기 위해, 음성 및 시각 정보와 같은 다중 모달 입력을 효과적으로 인지하고 추론하는 일반화되고 설명 가능한 다중 모달 컨텍스트 표현 프레임워크를 제안한다. 사용자의 언어적 발화와 로봇의 시각적 장면 인식 간의 '관련성' 평가를 사용 사례로 제시하며, 다중 모달 결합 표현 모듈과 시간 정렬 모듈을 통해 다중 모달 입력의 시간적 정렬을 통한 관련성 평가 방법론을 제시한다. 마지막으로, 제안된 컨텍스트 표현 프레임워크가 HRI의 설명 가능성 향상에 기여하는 방식을 논의한다.

시사점, 한계점

시사점:
다중 모달 정보 융합을 통한 HRI의 설명 가능성 향상 및 신뢰도 증진 가능성 제시.
사용자 발화와 로봇의 시각적 인지 간의 관련성 평가를 위한 새로운 방법론 제시.
시간적 정렬을 통한 다중 모달 입력의 효과적인 처리 방안 제시.
한계점:
제안된 프레임워크의 실제 로봇 시스템 적용 및 성능 평가 결과 부재.
다양한 상황 및 사용자 특성에 대한 일반화 가능성에 대한 추가 연구 필요.
제안된 설명 가능성 향상 방식의 구체적인 효과 및 한계에 대한 심층적인 분석 부족.
👍