본 논문은 기계학습(ML) 해석 가능성 레이아웃 세 가지가 증오 발언(혐오 발언)을 포함하는 문장을 평가할 때 참가자들의 견해에 영향을 미치는지 여부를 평가하기 위한 사용자 연구를 수행합니다. "여성혐오"와 "인종차별" 클래스에 중점을 두고, 기존 연구들의 상반된 결론들을 고려하여 설문 조사 응답에 대한 통계적 및 질적 분석을 통해 온라인 커뮤니티에서 ML 해석 가능성을 사용하는 것에 대한 경험적 증거를 제시합니다. 일반화된 가법 모델(Generalized Additive Model)을 사용하여 참가자의 평점을 추정하며, 피험자 내 및 피험자 간 설계를 통합합니다. 통계적 분석 결과 해석 가능성 레이아웃이 참가자의 견해에 유의미한 영향을 미치지 않는다는 것을 보여주지만, 질적 분석에서는 ML 해석 가능성의 장점, 즉 1) 참가자의 견해와 모델 간의 불일치가 발생할 경우 수정 피드백을 유도하고, 2) 기존 성능 지표를 넘어 모델의 동작을 평가하기 위한 통찰력을 제공한다는 것을 보여줍니다.