본 논문은 설명 가능한 인공지능(XAI)의 평가 및 최적화 기준으로 흔히 사용되는 '타당성(plausibility)'의 문제점을 비판적으로 분석한다. 타당성은 AI 설명의 설득력을 측정하는 기준으로, 일반적으로 특징 국재화 또는 특징 상관관계 측정값으로 정량화된다. 하지만 논문은 인간의 설명을 XAI의 절대적인 기준으로 삼는 것은 설명을 뒷받침하는 필수적인 가정을 무시하는 것이며, 따라서 타당성은 설명 가능성을 측정하는 유효한 기준이 아니라고 주장한다. 타당성을 기준으로 XAI를 평가 및 최적화하는 것은 사용자를 조종하는 오해의 소지가 있는 설명을 증가시키고, AI 시스템에 대한 사용자의 신뢰를 저하시키며, 인간의 자율성을 훼손하고, 인간-AI의 상호 보완적인 작업 수행을 달성하지 못하게 하는 등의 부정적인 결과를 초래한다고 지적한다. 따라서 연구자들은 XAI 평가 및 최적화 기준으로 타당성 사용을 중단하고, 신뢰성, 이해도, 사용자 유용성을 개선하는 새로운 연구 방향을 모색해야 한다고 주장한다.