Este artículo propone el Aprendizaje de Medidas de Ocupación de Campo Medio (MF-OML), un algoritmo de aprendizaje por refuerzo de campo medio en línea para calcular equilibrios de Nash aproximados en juegos colectivos secuencialmente simétricos a gran escala. MF-OML es el primer algoritmo de aprendizaje por refuerzo multiagente en tiempo polinomial que resuelve de forma demostrable equilibrios de Nash (con errores de aproximación de campo medio que se desvanecen a medida que el número de jugadores N tiende a infinito) más allá de juegos de suma cero y variantes de juego latentes. Para juegos con fuerte monotonía de Lasry-Lions, se alcanza un límite superior de arrepentimiento de alta probabilidad de $\tilde{O}(M^{3/4}+N^{-1/2}M)$, medido por la desviación acumulada del equilibrio de Nash. Para juegos con monotonía únicamente de Lasry-Lions, se alcanza un límite superior de arrepentimiento de $\tilde{O}(M^{11/12}+N^{- 1/6}M)$, donde M es el número total de episodios y N es el número de agentes en el juego. Como subproducto, se obtiene el primer algoritmo computacional globalmente convergente y manejable para calcular equilibrios de Nash aproximados de juegos monótonos de campo medio.