Qianou Ma, Dora Zhao, Xinran Zhao, Chenglei Si, Chenyang Yang, Ryan Louie, Ehud Reiter, Diyi Yang, Tongshuang Wu
개요
본 논문은 대규모 언어 모델(LLM) 시대에 다양한 인간-AI 상호작용 시스템에 대한 효과적인 평가 방법과 표준을 수립하는 어려움을 다룹니다. 더 투명한 문서화를 장려하고 인간-AI 시스템 평가 설계 옵션에 대한 논의를 촉진하기 위해, 다섯 가지 주요 차원(1. 평가 대상, 2. 평가 방법, 3. 평가 참여자, 4. 평가 시점, 5. 평가 검증 방법)을 포함하는 SPHERE 평가 카드를 제시합니다. 39개의 인간-AI 시스템에 대한 SPHERE를 이용한 검토를 수행하여 현재 평가 관행과 개선 영역을 제시하고, 평가 관행의 타당성과 엄격성을 개선하기 위한 세 가지 권장 사항을 제공합니다.