본 논문은 VR/AR 및 인간 애니메이션에서 현실적인 인간-객체 상호작용 동작을 합성하는 문제를 다룹니다. 기존의 단일 인간 또는 손과 하나의 객체 상호작용 시나리오와 달리, 임의의 수의 인간, 손 및 객체를 포함하는 더 일반적인 다중 본체 설정을 다룹니다. 이러한 복잡성은 본체 간의 높은 상관관계와 상호 영향으로 인해 동작 동기화에 상당한 어려움을 야기합니다. 이러한 문제를 해결하기 위해, 본 논문은 동기화된 모션 확산 전략을 사용하는 다중 본체 상호작용 합성을 위한 새로운 방법인 SyncDiff를 제시합니다. SyncDiff는 단일 확산 모델을 사용하여 다중 본체 동작의 결합 분포를 포착합니다. 모션 충실도를 높이기 위해 주파수 영역 모션 분해 방식을 제안합니다. 또한, 다양한 신체 동작의 동기화를 강조하기 위한 새로운 일치 점수 집합을 도입합니다. SyncDiff는 명시적인 동기화 전략을 통해 데이터 샘플 가능성과 일치 가능성을 공동으로 최적화합니다. 다양한 다중 본체 구성을 가진 네 개의 데이터 세트에 대한 광범위한 실험은 기존 최첨단 모션 합성 방법보다 SyncDiff의 우수성을 보여줍니다.