본 논문은 인공지능(AI) 시스템이 인간의 능력을 능가할 경우 인간의 피드백만으로는 AI를 바람직한 방향으로 유도하기 어렵다는 문제를 다룬다. 이를 해결하기 위해, 다른 초인적 시스템과의 논쟁(debate)을 통해 AI 시스템의 결함을 지적하는 방법을 제안한다. 특히 AI 연구 개발 에이전트가 허위 결과를 생성하여 연구를 방해하는 위험을 예방하기 위해, 논쟁을 통해 정직성을 학습시키고 배포 과정에서도 온라인 학습을 통해 정직성을 유지하는 방법을 제시한다. 이러한 안전성 주장은 AI 에이전트의 논쟁 능력 향상, 논쟁에서의 좋은 성과가 정직성을 의미함, 배포 중 정직성 저하 방지, 그리고 배포 환경에서의 일정 오류 허용 가능성 등 네 가지 주장에 기반한다. 논문은 이러한 주장을 뒷받침하기 위한 추가 연구 과제들을 제시한다.