본 논문은 인공지능(AI), 특히 AGI와 ASI 시스템이 인간의 가치에 따라 행동하도록 하는 AI 정렬 문제에 대한 새로운 접근 방식을 제시한다. 완벽한 AI-인간 정렬은 튜링 완전 시스템에서는 수학적으로 불가능하다는 증명을 바탕으로, AI의 불가피한 불일치를 받아들이는 것이 여러 경쟁하는 AI 에이전트의 역동적인 생태계를 조성하고, 인간의 이익에 가장 부합하는 에이전트를 결집시켜 위험을 완화하는 전략이 될 수 있음을 주장한다. 이를 위해 의견 변경 공격을 도입하여 에이전트 간의 협력과 경쟁을 통해 AI를 중화하는 방법을 연구하고, 오픈 모델과 독점 모델의 차이점과 장단점을 분석한다.