Este artículo presenta una investigación sobre si los modelos de lenguaje a gran escala pueden mejorar su rendimiento generando preguntas y respuestas de forma independiente, sin datos externos. Para lograrlo, proponemos un marco de autoaprendizaje asimétrico denominado Modelo de Lenguaje de Autocuestionamiento (SQLM). SQLM consta de un proponente que genera preguntas y un solucionador que genera respuestas, entrenados mediante aprendizaje por refuerzo. El proponente busca generar problemas de dificultad adecuada, y el solucionador se juzga correcto mediante votación mayoritaria. Para los problemas de codificación, el proponente genera pruebas unitarias, que el solucionador verifica. Realizamos experimentos con tres puntos de referencia: multiplicación de tres dígitos, problemas algebraicos del punto de referencia OMEGA y problemas de programación de Codeforces, demostrando mejoras de rendimiento sin datos externos.