Cet article met en évidence la manière dont les modèles de langage à grande échelle (MLH) comme ChatGPT exposent les vulnérabilités des infrastructures de connaissances modernes en imitant la cohérence tout en contournant les mécanismes traditionnels comme la citation, l'autorité et la vérification. Par conséquent, l'auteur propose le cadre de l'infrastructure épistémologique située (SEI) comme outil de diagnostic pour analyser comment la connaissance devient autoritaire dans les systèmes homme-machine dans des conditions post-cohérence. Plutôt que de s'appuyer sur des domaines académiques stables ou des communautés de pratique clairement délimitées, le SEI retrace la manière dont la fiabilité est médiatisée par les dispositifs institutionnels, informatiques et temporels. Intégrant les connaissances issues des études sur les infrastructures, de la théorie des plateformes et de l'épistémologie, ce cadre privilégie la coordination plutôt que la classification, soulignant la nécessité de modèles prédictifs et adaptatifs de gestion épistémologique. En offrant une alternative convaincante aux modèles représentationalistes de la communication scientifique, cet article contribue aux discussions sur la gouvernance de l'IA, la production de connaissances et la conception éthique des systèmes d'information.