본 논문은 인공 일반 지능(AGI)의 안전한 개발을 위한 기존 접근 방식(공리적 형식주의, 해석 가능성, 경험적 검증에 기반한 합의 기반 정렬 접근 방식)의 한계를 지적한다. 기존 방법들은 수용된 인식론적 틀 밖의 새로운 해결책을 인식하거나 통합하는 데 구조적으로 어려움을 겪을 수 있다는 것이다. 이를 해결하기 위해, 인지적, 제도적, 사회적, 인프라적 필터가 결합하여 많은 정렬 제안을 기존 평가 시스템에서 읽을 수 없게 만드는 인식론적 폐쇄의 기능적 모델을 제시한다. 분산형 집단 지능(DCI) 프레임워크에 대한 거부 및 비참여 패턴에 대한 AI 시스템의 메타 분석을 포함한 이론적 및 경험적 근거를 바탕으로 가중 폐쇄 모델을 제시하며, DCI와 같은 모델의 평가 실패가 사회학적 간과가 아니라 구조적 인력임을 주장한다. DCI 또는 유사한 재귀적 인식론적 수정 모델을 채택하지 않으면 돌이킬 수 없는 불일치로 향하는 예측 가능한 경로를 밟을 수 있다고 경고한다. 시뮬레이션된 검토와 공식 채널을 통한 본 논문의 개발 및 수용은 중심 주장(인식론적 폐쇄는 그것을 유지하는 제약 조건의 재귀적 모델링을 통해서만 극복될 수 있다)을 뒷받침하는 사례 연구를 제공한다.