AI 안전성 확보를 위해 여러 생성 모델을 집계하는 아키텍처 불가지론적 접근 방식을 제안합니다. 이 접근 방식은 주어진 크기 내에서 가장 안전한 모델들의 부분 집합으로부터 안전성을 상속받도록 설계되었습니다. 구체적으로, $k$개의 모델과 프롬프트가 주어졌을 때, 안전한 $s$개의 모델 평균 위험 수준으로 경쟁하면서, 모델 간의 충분한 합의가 없을 때는 회피하는 합의 샘플링 알고리즘을 제시합니다. 모델 출력 확률 계산 능력을 활용하며, 충분히 많은 안전한 모델이 있고 적절한 합의를 보일 때 회피 확률을 제한합니다. Vyas et al. (2023)의 저작권 보호 알고리즘에서 영감을 받았습니다.