본 논문은 AI 정렬 문제를 $\langle M,N,\varepsilon,\delta\rangle$-합의라는 다중 목표 최적화 문제로 공식화한다. 여기서 $N$명의 에이전트(인간 포함)는 $M$개의 후보 목표에 대해 확률 $1-\delta$로 근사적 ($\varepsilon$) 합의에 도달해야 한다. 통신 복잡성을 분석하여 $M$ 또는 $N$이 충분히 커지면 계산 능력이나 합리성으로는 본질적인 정렬 오버헤드를 피할 수 없다는 정보 이론적 하한을 증명한다. 이는 "모든 인간 가치"를 인코딩하는 것은 본질적으로 다루기 어렵고 합의 기반 축소 또는 목표 우선 순위를 통해 관리해야 한다는 "No-Free-Lunch" 원리를 명확히 하며, 정렬 자체에 대한 엄격한 제한을 설정한다. 이러한 불가능성 결과를 보완하기 위해, 무제한 및 제한된 합리성 하에서 잡음 통신을 사용하여 정렬을 위한 명시적 알고리즘을 구축한다. 제한된 에이전트 및 샘플링 분석을 통해 대규모 작업 공간($D$)과 유한한 샘플을 사용하면 보상 해킹이 전역적으로 불가피하다는 것을 보여준다. 희귀한 높은 손실 상태는 체계적으로 과소 보상되므로 확장 가능한 감독은 균일한 적용 범위가 아닌 안전에 중요한 부분에 초점을 맞춰야 한다.