본 논문은 인간-AI 상호작용에서 설명의 역할에 대해 논의하며, 신뢰가 설명의 전제조건이 될 수 있다고 주장한다. 설명을 지식 네트워크 내에서 공유된 개념과 설명될 개념 사이의 경로 탐색 과정으로 공식화하여, 제한된 시간 내에 설명이 실패할 수 있음을 보여준다. 이 모델은 행위자들이 합리적이고 정직하며 동기가 부여되고 완벽하게 의사소통할 수 있으며 중첩된 지식을 가지고 있는 이론적으로 이상적인 조건에서도 설명이 실패할 수 있음을 밝힌다. 성공적인 설명에는 공유된 지식의 존재뿐 아니라 시간 제약 내에서 연결 경로를 찾는 것이 필요하며, 따라서 공유된 지식이 발견되기 전에 설명 시도를 중단하는 것이 합리적일 수 있다. 특히 대규모 언어 모델과 같이 정교하고 표면적으로는 설득력 있지만 허위적인 설명을 생성할 수 있는 AI 시스템이 등장함에 따라, 인간은 진정한 설명을 요구하기보다는 신뢰에 의존하는 경향이 생길 수 있으며, 이는 잘못된 신뢰와 불완전한 지식 통합의 위험을 초래한다.