본 논문은 대규모 언어 모델의 정렬 기술이 모델의 복잡성이 증가하고 인간의 감독이 약해지는 상황에 어떻게 적응해야 하는지에 대한 문제를 다룹니다. 약한 모델 감독을 통해 훨씬 강력한 모델의 기능을 활용하는 "Weak-to-Strong" 방법을 확장하여, 다수의 약한 모델 앙상블을 사용하는 "WeakS-to-Strong" 방법을 제안합니다. 이는 인간 의견의 다양성을 모방합니다. 베이지안 접근 방식을 사용하여 신뢰도 점수를 추정하여 WeakS-to-Strong의 일반화를 안내하고, 텍스트 분류뿐 아니라 텍스트 생성 작업에도 적용 범위를 확장하며, 강화된 감독 전략과 직접적인 선호도 최적화를 통해 학습 모델의 선호도 학습을 향상시킵니다. 실험 결과는 제안된 접근 방식이 강력한 학습 모델의 신뢰성을 향상시키고 초정렬(superalignment)의 잠재력을 보여줍니다.