본 논문은 ChatGPT와 같은 대규모 언어 모델(LLM)이 인용, 권위, 검증과 같은 전통적인 방식을 우회하면서 일관성을 모방함으로써 현대 지식 인프라의 취약성을 드러낸다는 점을 강조한다. 이에 따라, 저자는 후 일관성(post-coherence) 조건 하에서 인간-기계 시스템 전반에 걸쳐 지식이 어떻게 권위를 갖게 되는지 분석하기 위한 진단 도구로서 상황적 인식론적 인프라(SEI) 프레임워크를 제시한다. SEI는 안정적인 학술 영역이나 경계가 명확한 실천 공동체에 의존하기보다는 제도적, 계산적, 시간적 배열 전반에 걸쳐 신뢰성이 어떻게 매개되는지를 추적한다. 인프라 연구, 플랫폼 이론, 인식론의 통찰력을 통합하여, 이 프레임워크는 분류보다 조정을 강조하며, 인식론적 관리에 대한 예측적이고 적응적인 모델의 필요성을 강조한다. 본 논문은 학술적 의사소통에 대한 표상주의적 모델에 대한 강력한 대안을 제공함으로써 AI 거버넌스, 지식 생산 및 정보 시스템의 윤리적 설계에 대한 논의에 기여한다.