[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ERR@HRI 2.0 Challenge: Multimodal Detection of Errors and Failures in Human-Robot Conversations

Created by
  • Haebom

저자

Shiye Cao, Maia Stiber, Amama Mahmood, Maria Teresa Parreira, Wendy Ju, Micol Spitale, Hatice Gunes, Chien-Ming Huang

개요

본 논문은 대규모 언어 모델(LLM) 기반의 대화형 로봇에서 발생하는 오류(예: 사용자 의도 오해, 사용자의 대화 중단, 응답 실패) 탐지 및 해결을 위한 ERR@HRI 2.0 챌린지를 소개합니다. 이 챌린지는 16시간 분량의 인간-로봇 상호작용 데이터셋(얼굴, 음성, 머리 움직임 특징 포함)을 제공하며, 로봇 오류의 존재 여부 및 사용자의 오류 수정 의도를 주석으로 달았습니다. 참가자들은 다중 모드 데이터를 사용하여 로봇 오류를 탐지하는 머신러닝 모델을 개발하고, 검출 정확도와 오탐율 등의 지표로 평가받게 됩니다. 이는 사회적 신호 분석을 통한 인간-로봇 상호작용의 오류 탐지 개선을 위한 중요한 단계입니다.

시사점, 한계점

시사점:
LLM 기반 대화형 로봇의 오류 탐지 및 해결 연구를 위한 표준화된 벤치마킹 기준 제시
다양한 모드의 데이터를 활용한 로봇 오류 탐지 모델 개발 촉진
인간-로봇 상호작용의 신뢰성 및 효율성 향상에 기여
사회적 신호 분석 기반의 인간-로봇 상호작용 연구 발전에 기여
한계점:
데이터셋의 크기 및 다양성에 대한 제한 (16시간 분량의 데이터는 충분하지 않을 수 있음)
주석의 주관성 및 오류 가능성 존재
실제 환경에서의 일반화 성능에 대한 검증 필요
다양한 유형의 로봇 오류를 모두 포괄하지 못할 가능성 존재
👍