본 논문은 AI가 의사결정 지원을 제공하더라도, 사람들의 의사결정 능력이 향상되지 않거나 심지어 저하될 수 있다는 문제를 제기합니다. 이는 AI가 제공하는 설명이 AI의 결정만을 정당화하는 "일방적" 설명일 뿐, 사용자의 사고 과정을 고려하지 않기 때문이라고 주장합니다. 따라서, AI의 선택과 예측된 사람의 선택 간의 차이를 설명하는 인간 중심적 대조 설명(contrastive explanations)을 생성하는 프레임워크를 제시합니다. 대규모 실험 (N = 628) 결과, 대조 설명이 의사결정 정확도를 희생하지 않으면서 사용자의 독립적인 의사결정 기술을 향상시킨다는 것을 보여줍니다. 이는 AI 설계에 인간의 추론을 통합하면 인간의 기술 개발을 촉진할 수 있음을 시사합니다.