본 논문은 현대 머신러닝 모델의 불투명성으로 인한 신뢰, 감독, 안전 및 인간 존엄성에 대한 우려를 다룹니다. 설명 가능성 방법이 모델 이해에 도움을 주지만, 개발자가 사용자에게 이해 가능하고 목적에 효과적인 설명을 설계하는 것은 여전히 어렵습니다. 124명의 참가자를 대상으로 한 대규모 실험을 통해 개발자가 최종 사용자에게 설명을 제공하는 방식, 직면하는 어려움, 특정 정책이 그들의 행동을 얼마나 지도하는지 조사했습니다. 실험 결과, 대부분의 참가자는 양질의 설명을 생성하고 제공된 정책을 준수하는 데 어려움을 겪었으며, 정책 지침의 성격과 구체성은 효과에 거의 영향을 미치지 않았습니다. 이는 비기술적 이해관계자의 요구를 상상하고 예측하지 못했기 때문이라고 주장하며, 인지 과정 이론과 사회적 상상력을 바탕으로 교육적 개입을 권장합니다.