본 논문은 교육 분야에서 복잡한 기계 학습 모델의 사용 증가에 따른 해석성 문제를 해결하기 위해, 모델의 내부 동작에 충실하면서도 사용자가 이해할 수 있는 설명 가능성 기법 개발에 초점을 맞추고 있다. 특히, 신경망 기반 학습자 행동 탐지 모델을 설계 단계부터 해석 가능하도록 구축하는 새로운 접근 방식을 제시한다. 모델의 추출된 매개변수는 명확한 해석이 가능하고, 학습자 행동에 대한 모델의 학습된 지식을 완전히 포착하며, 충실하고 이해하기 쉬운 설명 생성에 사용될 수 있다. 이는 모델의 추론 과정을 단순화하고, 사람의 인지 방식에 가깝게 만드는 일련의 제약 조건을 구현함으로써 달성된다. 시스템 악용 행동 탐지를 위해 모델을 훈련하고, 성능을 평가하며, 학습된 패턴을 전문가가 식별한 패턴과 비교한다. 결과적으로, 모델은 시스템 악용 행동을 나타내는 패턴을 성공적으로 학습하고, 완전히 해석 가능한 설명을 제공하는 증거를 제시한다. 마지막으로, 제안된 접근 방식의 의미를 논의하고, 인간 중심 접근 방식을 사용하여 설명 가능성을 평가하는 방법을 제안한다.