この論文は、ChatGPTのような大規模言語モデル(LLM)が、引用、権威、検証などの伝統的な方法を迂回しながら一貫性を模倣することによって現代の知識インフラの脆弱性を明らかにすることを強調しています。したがって、著者は、ポストコヒーレンス条件下で人間 - 機械システム全体にわたって知識がどのように権威を持つかを分析するための診断ツールとして、状況的認識論的インフラストラクチャ(SEI)フレームワークを提示します。 SEIは、安定した学術分野や境界が明確な実践コミュニティに依存するのではなく、制度的、計算的、および時間的配置全体にわたって信頼性がどのように仲介されるかを追跡します。インフラ研究、プラットフォーム理論、認識論の洞察を統合することで、このフレームワークは分類よりも調整を強調し、認識論的管理のための予測的かつ適応的なモデルの必要性を強調します。本論文は、学術的コミュニケーションの表象主義的モデルに対する強力な代替案を提供することによって、AIガバナンス、知識生産、および情報システムの倫理的設計の議論に貢献します。