Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ERR@HRI 2.0 Challenge: Multimodal Detection of Errors and Failures in Human-Robot Conversations

Created by
  • Haebom

저자

Shiye Cao, Maia Stiber, Amama Mahmood, Maria Teresa Parreira, Wendy Ju, Micol Spitale, Hatice Gunes, Chien-Ming Huang

개요

대규모 언어 모델(LLM)을 활용한 대화형 로봇은 인간-로봇 대화를 더욱 동적으로 만들었지만, 여전히 오류 발생 가능성이 높다. ERR@HRI 2.0 챌린지는 이러한 문제를 해결하기 위해 LLM 기반 대화형 로봇의 실패를 감지하는 머신러닝 모델을 벤치마킹하도록 장려하며, 16시간 분량의 인간-로봇 상호작용 데이터셋을 제공한다. 이 데이터셋은 얼굴, 음성, 머리 움직임 등 멀티모달 데이터를 포함하며, 로봇 오류의 유무와 사용자 의도를 포함하여 주석 처리된다. 참가자들은 이 데이터셋을 사용하여 로봇 실패를 감지하는 머신러닝 모델을 개발하고, 정확도와 오탐율 등의 성능 지표로 평가받는다.

시사점, 한계점

시사점:
인간-로봇 상호작용에서 로봇 실패 감지를 위한 멀티모달 데이터셋 구축 및 챌린지 개최.
로봇의 오류 감지를 위한 머신러닝 모델 개발 및 벤치마킹 기회 제공.
사회적 신호 분석을 통한 인간-로봇 상호작용 개선에 기여.
한계점:
제공된 데이터셋의 규모가 제한적일 수 있음.
특정 환경 및 로봇 시스템에 국한된 결과가 나올 수 있음.
머신러닝 모델의 일반화 성능 검증 필요.
👍