Este artículo presenta un método novedoso para integrar eficientemente un nuevo idioma en un modelo lingüístico a gran escala (LLM) existente. Entrenamos un modelo pequeño, de código abierto y basado en inglés, Kuwain, con 1500 millones de parámetros, inyectándole árabe. Logramos una mejora promedio del 8 % en el rendimiento en árabe, preservando el conocimiento existente, lo que ofrece una alternativa rentable al entrenamiento de un modelo integral tanto para inglés como para árabe. Esto demuestra el potencial para un escalamiento eficiente y orientado a objetivos de modelos lingüísticos sin necesidad de un reentrenamiento exhaustivo ni procesos que consuman muchos recursos.