본 논문은 고차원 비볼록 Hamilton-Jacobi-Isaacs (HJI) 방정식을 푸는 새로운 메시-프리 정책 반복 프레임워크를 제안합니다. 이 프레임워크는 고전적인 동적 계획법과 물리 정보 신경망 (PINNs)을 결합하여 확률적 미분 게임 및 강건 제어에서 발생하는 문제를 해결합니다. 고정된 피드백 정책 하에서 선형 2차 편미분 방정식을 풀고, 자동 미분을 사용한 점별 최소-최대 최적화를 통해 제어를 업데이트하는 과정을 반복합니다. 표준 Lipschitz 조건과 균일 타원형 조건 하에서, 값 함수 반복이 HJI 방정식의 유일한 점성 해에 국소적으로 균일하게 수렴함을 증명합니다. 해석은 반복의 등-Lipschitz 규칙성을 확립하여, 해밀토니안의 볼록성을 요구하지 않고도 입증 가능한 안정성과 수렴성을 가능하게 합니다. 수치 실험은 해당 방법의 정확성과 확장성을 보여줍니다. 이동 장애물이 있는 2차원 확률적 경로 계획 게임에서, 본 방법은 유한 차분 벤치마크와 10⁻²% 미만의 상대 L²-오차로 일치합니다. 비등방성 잡음이 있는 5차원 및 10차원 게시자-구독자 미분 게임에서, 제안된 접근 방식은 직접적인 PINN 솔버보다 일관되게 우수한 성능을 보이며, 더 부드러운 값 함수와 더 낮은 잔차를 생성합니다. 결과는 PINNs와 정책 반복을 통합하는 것이 고차원 비볼록 HJI 방정식을 푸는 실용적이고 이론적으로 근거 있는 방법이며, 로봇 공학, 금융 및 다중 에이전트 강화 학습에 적용될 가능성을 시사합니다.