Este artículo presenta un marco de paralelización automática, TAPAS, para abordar los desafíos de determinar automáticamente estrategias de paralelización tensorial esenciales para el entrenamiento distribuido de redes neuronales a gran escala. Este marco aborda el espacio de búsqueda en constante crecimiento de los métodos existentes al reducirlo eficientemente mediante un enfoque de "divide y vencerás", aprovechando la subestructura recurrente de las redes neuronales. Este enfoque logra una complejidad sublineal con respecto al tamaño del modelo, lo que proporciona una solución escalable aplicable al entrenamiento de redes a gran escala. Los resultados experimentales demuestran que TAPAS alcanza velocidades de búsqueda hasta 160 veces más rápidas que los marcos de paralelización automática de vanguardia existentes, y el rendimiento de la estrategia derivada es comparable o superior al de la biblioteca Megatron-LM, diseñada por expertos.