Explanatory Interactive Learning (XIL)은 사용자가 모델의 설명을 통해 AI 모델을 사용자 정의하고 수정할 수 있도록 설계된 강력한 대화형 학습 프레임워크입니다. XIL 알고리즘은 AI 모델이 결정을 내린 항목(예: 이미지 및 태그)을 선택하고, 해당 설명(예: 모델의 결정을 유발하는 이미지 영역)과 함께 사용자에게 제시합니다. 사용자는 설명에 대한 수정 피드백을 제공하고, 알고리즘은 이를 사용하여 모델을 개선합니다. 본 연구에서는 설명적 상호작용이 사용자 신뢰 및 피드백 품질에 영향을 미칠 수 있는 순서 효과(order effects)의 영향을 조사하기 위해 두 개의 대규모 사용자 연구를 수행했습니다. 그 결과, 순서 효과가 XIL 접근 방식의 성공적인 사용에 큰 문제를 제기하지 않는다는 것을 확인했습니다.