Inspirado en la capacidad humana de aprender rápidamente nuevas palabras a partir de un número reducido de ejemplos y usarlas con flexibilidad en diversos contextos, este artículo presenta Minnow (Meta-entrenamiento para el Aprendizaje de Palabras en Contexto), un novedoso método para mejorar la capacidad de aprendizaje de palabras con solo unos pocos intentos de un modelo lingüístico. Minnow entrena un modelo lingüístico para generar ejemplos de palabras nuevas mediante tokens especiales. El entrenamiento repetido con diversas palabras nuevas desarrolla capacidades generales de aprendizaje de palabras. Los resultados experimentales demuestran que entrenar un modelo lingüístico desde cero con Minnow, utilizando datos lingüísticos de niños, logra capacidades de aprendizaje de palabras comparables a las de los modelos lingüísticos a gran escala (LLM) preentrenados con muchos más datos en pocos intentos. Además, el ajuste preciso de Minnow en un LLM preentrenado mejora la capacidad de segmentar palabras nuevas, identificar sus categorías sintácticas y generar nuevos ejemplos de uso y definiciones a partir de unos pocos ejemplos contextuales. Esto destaca la eficiencia de datos de Minnow y su potencial para mejorar el rendimiento del modelo lingüístico en tareas de aprendizaje de palabras.