본 논문은 Control as Inference (CAI) 프레임워크를 분산된 다중 에이전트 일반합 게임(SGs)에 확장하는 새로운 변분 추론 프레임워크를 제안합니다. 기존 CAI 프레임워크가 단일 에이전트 강화학습에 성공적으로 적용되었지만, 중앙 집중식 조정 없이 독립적으로 작동하는 분산 환경의 다중 에이전트 일반합 게임으로의 확장은 미개척 분야였습니다. 본 논문에서 제안하는 프레임워크는 비정상성과 상반된 에이전트 목표라는 과제를 해결하며, 결과 정책이 ε-Nash 균형을 형성함을 증명합니다. 또한, 제안된 분산 알고리즘에 대한 이론적 수렴 보장을 보여주고, Nash 균형, 평균장 Nash 균형, 그리고 상관 균형을 해결하기 위한 여러 알고리즘을 제시하며 엄격한 이론적 수렴 분석을 제공합니다.