Este artículo explora el creciente interés en el aprendizaje de algoritmos de metaaprendizaje a partir de datos, reemplazando los enfoques tradicionales de diseño manual, como paradigma para mejorar el rendimiento de los sistemas de aprendizaje automático. El metaaprendizaje es particularmente prometedor en el aprendizaje por refuerzo (RL), donde se aplican con frecuencia algoritmos de aprendizaje supervisados o no supervisados, a menudo no optimizados para el aprendizaje por refuerzo. En este artículo, comparamos empíricamente diversos algoritmos de metaaprendizaje, como algoritmos evolutivos para optimizar funciones de caja negra o modelos de lenguaje a gran escala (LLM) que proponen código. Comparamos y analizamos algoritmos de metaaprendizaje aplicados a diversas canalizaciones de RL, examinando factores como la interpretabilidad, el coste de la muestra y el tiempo de entrenamiento, además del rendimiento del metaaprendizaje y las metapruebas. Con base en estos resultados, proponemos varias directrices para el metaaprendizaje de nuevos algoritmos de RL con el fin de maximizar el rendimiento de los algoritmos aprendidos en el futuro.