Este artículo propone TransLLM, un marco integrado que combina el modelado espaciotemporal y un modelo de lenguaje a gran escala (LLM) para abordar diversos desafíos en los sistemas de transporte urbano, incluyendo la predicción del tráfico, la previsión de la demanda de carga de vehículos eléctricos y el despacho de taxis. TransLLM captura dependencias complejas mediante un codificador espaciotemporal ligero e interactúa fluidamente con el LLM mediante la construcción de indicaciones aprendibles. Un mecanismo de enrutamiento de indicaciones a nivel de instancia, entrenado mediante aprendizaje de refuerzo, personaliza dinámicamente las indicaciones según las características de entrada. Codifica patrones espaciotemporales como representaciones contextuales, construye indicaciones personalizadas para guiar la inferencia del LLM y genera predicciones específicas para cada tarea mediante una capa de salida especializada. Los resultados experimentales en siete conjuntos de datos y tres tareas demuestran que TransLLM tiene un rendimiento competitivo tanto en entornos supervisados como de cero disparos, demostrando una excelente generalización y adaptabilidad entre tareas.