Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Understanding Human-AI Trust in Education

Created by
  • Haebom

저자

Griffin Pitts, Sanaz Motamedi

개요

본 논문은 교육 환경에서 AI 챗봇의 사용 증가에 따라 학생들이 챗봇에 대한 신뢰 형성 방식에 대한 연구를 진행했다. 기존의 대인 신뢰 모델과 기술 신뢰 모델의 적용 한계를 지적하며, 인간과 같은 특성(anthropomorphic characteristics)을 지닌 AI 챗봇에 대한 신뢰가 어떻게 형성되는지 탐구한다. 부분 최소 제곱 구조 방정식 모형(partial least squares structural equation modeling)을 사용하여 인간과 같은 신뢰(human-like trust)와 시스템과 같은 신뢰(system-like trust)가 학생들의 챗봇에 대한 즐거움, 신뢰 의도, 사용 의도, 유용성 인식에 미치는 영향을 분석했다. 그 결과, 두 유형의 신뢰 모두 유의미한 영향을 미치지만, 인간과 같은 신뢰는 신뢰 의도에, 시스템과 같은 신뢰는 행동 의도와 유용성 인식에 더 큰 영향을 미치는 것으로 나타났다. 따라서 기존 모델로는 AI 챗봇에 대한 신뢰를 완전히 설명할 수 없으며, 인간-AI 신뢰(human-AI trust)라는 새로운 유형의 신뢰 모델이 필요함을 제시한다.

시사점, 한계점

시사점:
AI 챗봇에 대한 신뢰는 기존의 대인 신뢰 또는 기술 신뢰 모델로는 완전히 설명되지 않으며, 별개의 '인간-AI 신뢰' 모델이 필요함을 시사한다.
인간과 같은 신뢰와 시스템과 같은 신뢰는 AI 챗봇에 대한 학생들의 인식에 서로 다른 영향을 미친다. 교육 환경에서 AI 챗봇의 효과적인 활용을 위해서는 두 유형의 신뢰를 모두 고려해야 한다.
본 연구는 인간-AI 신뢰에 대한 새로운 이론적 틀을 개발하는 데 기여하며, 교육 분야에서 AI 채택 및 교육적 영향을 높이기 위한 실질적인 통찰력을 제공한다.
한계점:
연구 대상이 특정 챗봇과 학생 집단에 국한되어 일반화 가능성에 제한이 있을 수 있다.
인간-AI 신뢰에 대한 새로운 이론적 틀을 제시하였지만, 구체적인 모델의 개발은 향후 연구 과제로 남는다.
다른 유형의 AI 시스템이나 다른 교육 환경에서는 결과가 다르게 나타날 수 있다.
👍