Cet article propose TransLLM, un cadre intégré combinant modélisation spatio-temporelle et modèle de langage à grande échelle (LLM) pour relever divers défis des systèmes de transport urbain, notamment la prévision du trafic, la prévision de la demande de recharge de véhicules électriques et la répartition des taxis. TransLLM capture les dépendances complexes grâce à un encodeur spatio-temporel léger et interagit de manière transparente avec le LLM grâce à la construction d'invites apprenables. Un mécanisme de routage d'invites au niveau de l'instance, entraîné par apprentissage par renforcement, personnalise dynamiquement les invites en fonction des caractéristiques d'entrée. Il encode les schémas spatio-temporels sous forme de représentations contextuelles, construit des invites personnalisées pour guider l'inférence du LLM et génère des prédictions spécifiques à la tâche via une couche de sortie spécialisée. Les résultats expérimentaux sur sept jeux de données et trois tâches démontrent que TransLLM est compétitif dans les environnements supervisés et à zéro coup, démontrant une excellente généralisation et une adaptabilité inter-tâches.