본 논문은 Lasry-Lions 프레임워크에서 무한한 수의 에이전트 간의 상호작용을 모델링하는 Mean-Field Games (MFG)에 대한 연구를 제시한다. 기존 알고리즘의 한계점을 극복하기 위해, 본 논문은 KL 정규화를 이용한 proximal-point (PP) 업데이트의 마지막 반복 정책이 비-엄격한 단조성 하에서 MFG의 평형으로 수렴함을 증명한다. 또한, 각 PP 업데이트가 KL 정규화된 MFG의 평형을 찾는 것과 동등함을 보이고, 이 평형을 Mirror Descent (MD)를 사용하여 지수적 마지막 반복 수렴률로 찾을 수 있음을 증명한다. 이러한 통찰력을 바탕으로, 본 논문은 MD 단계를 소량 사용하여 PP 업데이트를 근사적으로 구현하는 Approximate Proximal-Point ($\mathtt{APP}$) 알고리즘을 제안한다. 표준 벤치마크에 대한 수치 실험을 통해 $\mathtt{APP}$ 알고리즘이 시간 평균 없이도 비-정규화된 평균장 평형으로 안정적으로 수렴함을 확인했다.