Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Understanding Human-AI Trust in Education

Created by
  • Haebom

저자

Griffin Pitts, Sanaz Motamedi

개요

본 논문은 교육 환경에서 AI 챗봇 사용 증가에 따라 학생들이 챗봇에 대한 신뢰를 어떻게 형성하는지 연구한다. 기존의 인간 간 신뢰 모델과 기술 신뢰 모델은 AI 챗봇의 인격화된 특성을 충분히 반영하지 못한다는 점을 지적하며, 인간과 같은 신뢰(human-like trust)와 시스템과 같은 신뢰(system-like trust)가 학생들의 AI 챗봇에 대한 즐거움, 신뢰 의도, 사용 의도, 유용성 인식에 미치는 영향을 부분최소자승 구조방정식 모형(PLS-SEM)을 통해 분석한다. 연구 결과, 두 유형의 신뢰 모두 학생들의 인식에 유의미한 영향을 미치지만, 인간과 같은 신뢰는 신뢰 의도에 더 큰 영향을 미치고, 시스템과 같은 신뢰는 사용 의도와 유용성 인식에 더 큰 영향을 미치는 것으로 나타났다. 두 유형의 신뢰 모두 즐거움 인식에는 유사한 영향을 미쳤다. 이를 바탕으로, 학생들은 기존의 인간-인간 또는 인간-기술 신뢰 모델과는 다른 독특한 형태의 인간-AI 신뢰를 형성한다는 새로운 이론적 틀을 제시한다.

시사점, 한계점

시사점:
AI 챗봇에 대한 학생들의 신뢰 형성 과정에 대한 새로운 이해를 제공한다.
인간-AI 신뢰에 대한 새로운 이론적 틀의 필요성을 강조한다.
교육 환경에서 AI 챗봇의 효과적인 활용을 위한 실질적인 통찰력을 제공한다.
인간과 같은 신뢰와 시스템과 같은 신뢰의 차별적인 영향을 밝힘으로써, AI 챗봇 설계 및 교육적 활용 전략 수립에 대한 방향을 제시한다.
한계점:
연구 대상이 특정 AI 챗봇에 국한될 수 있다는 점.
인간-AI 신뢰에 대한 새로운 이론적 틀이 구체적으로 제시되지 않았다는 점.
PLS-SEM 분석의 특성상 인과 관계에 대한 명확한 결론을 내리기 어려울 수 있다는 점.
다양한 연령대와 배경을 가진 학생들을 대상으로 한 연구가 필요하다는 점.
👍