본 논문은 기존 AI 정렬 문제 연구가 정성적 설명, 가치 명세 및 학습을 통한 인간의 이익과의 정렬 시도, 단일 에이전트 또는 인류 전체를 단일체로 간주하는 데 집중해 온 점을 지적하며, 다수의 인간 및 AI 에이전트 간 복잡한 불일치를 이해해야 할 필요성을 강조하는 최근 사회기술적 접근법을 바탕으로 연구를 진행합니다. 인간 갈등에 대한 계산 사회과학 모델을 AI 정렬 문제에 적용하여, 상충하는 목표를 가진 다양한 에이전트 그룹에서의 불일치를 정량화하는 모델을 제시합니다. 이 모델은 관찰된 에이전트 집단, 문제 영역, 에이전트의 가중된 선호도 간의 갈등에 따라 불일치 점수를 산출하며, 시뮬레이션을 통해 다양한 시나리오에서 불일치의 직관적인 측면을 포착하는 것을 보여줍니다. 자율 주행 자동차 설정을 포함한 두 가지 사례 연구에 모델을 적용하여 실용성을 입증합니다. 결론적으로, 이 접근 방식은 복잡한 사회기술 환경에 대한 설명력을 높이고 실제 응용 분야에서 더욱 정렬된 AI 시스템 설계에 정보를 제공할 수 있습니다.