Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Should I Share this Translation? Evaluating Quality Feedback for User Reliance on Machine Translation

Created by
  • Haebom

저자

Dayeon Ki, Kevin Duh, Marine Carpuat

개요

본 논문은 사람들이 AI 시스템을 업무와 일상생활에서 점점 더 많이 사용하는 상황에서, 특히 사용자가 AI 예측의 품질을 평가할 능력이 없는 환경에서, AI를 책임감 있게 사용하는 데 도움이 되는 피드백 메커니즘의 필요성을 강조한다. 기계 번역(MT) 시나리오를 통해 단일 언어 사용자가 MT 출력 공유 여부를 결정하는 상황을 연구하며, 품질 피드백의 유무에 따른 사용자 행동 변화를 관찰한다. 오류 강조, LLM 설명과 같은 명시적 피드백, 그리고 역번역, 질의응답(QA) 테이블과 같은 암시적 피드백을 비교 분석하여, 어떤 유형의 피드백이 결정 정확도와 적절한 의존도 향상에 효과적인지를 평가한다.

시사점, 한계점

시사점:
오류 강조를 제외한 모든 피드백 유형이 결정 정확도와 적절한 의존도를 유의미하게 향상시켰다.
암시적 피드백, 특히 QA 테이블이 결정 정확도, 적절한 의존도, 사용자 인지 측면에서 명시적 피드백보다 더 큰 효과를 보였다.
QA 테이블은 유용성과 신뢰도에서 가장 높은 평가를, 정신적 부담에서는 가장 낮은 평가를 받았다.
한계점:
오류 강조가 효과적이지 않은 이유에 대한 추가적인 분석이 필요하다.
다른 AI 분야 및 사용자 그룹에 대한 일반화 가능성을 추가 연구해야 한다.
다양한 암시적 피드백 방식에 대한 추가적인 비교 연구가 필요하다.
👍