본 논문은 교육 분야에서 설명 가능한 인공지능(XAI)의 정의와 과제를 체계적으로 검토한 연구이다. PRISMA 방법론을 사용하여 19개의 관련 연구를 분석한 결과, XAI에 대한 15가지 정의와 62가지 과제를 도출하였다. 이러한 과제들은 설명 가능성, 윤리적 문제, 기술적 어려움, HCI(인간-컴퓨터 상호작용), 신뢰성, 정책 및 지침, 기타 등 7가지 주제로 분류되었다. 특히 XAI에 대한 표준화된 정의의 부재로 인해 윤리, 신뢰성, 기술적 측면, 설명 가능성에 대한 정의가 중복되고 다양하게 해석되는 문제점을 지적하였다. 궁극적으로 교육 분야에서 XAI의 기여 방안을 제시하는 것을 목표로 한다.