본 연구는 인공지능(AI) 시스템의 설명가능성이 사용자 신뢰를 높인다는 일반적인 가정에 대해 비판적으로 검토합니다. 90개 연구를 메타 분석하여 AI 설명가능성과 신뢰 간의 관계를 탐구했습니다. 분석 결과, AI 시스템의 설명가능성과 사용자 신뢰 간에는 통계적으로 유의미하지만 중간 정도의 양의 상관관계가 있음을 밝혔습니다. 즉, 설명가능성이 신뢰 구축에 기여하지만, 유일하거나 주된 요인은 아님을 시사합니다. 설명가능한 AI (XAI) 분야에 대한 학문적 기여 외에도, 특히 의료 및 사법과 같은 중요한 영역에서 책임성을 높이고 사용자 신뢰를 증진하는 데 있어 더 넓은 사회기술적 의미를 강조합니다. 알고리즘 편향 및 윤리적 투명성과 같은 문제를 해결함으로써, 공정하고 지속 가능한 AI 채택의 필요성을 강조합니다. 즉각적인 신뢰에만 집중하기보다는, AI 시스템에서 진정하고 지속적인 신뢰성을 육성하는 규범적 중요성을 강조합니다.