Cet article propose REACT (Real-time Edge-based Autonomous Co-pilot Trajectory Planner), un framework de planification de trajectoire léger et en temps réel basé sur un modèle de langage de vision qui intègre la communication véhicule-à-tout (V2X) pour surmonter les limites de détection des systèmes de conduite autonome. REACT affine un modèle de langage de vision léger (VLM) pour intégrer les alertes de danger fournies par l'infrastructure aux données des capteurs embarqués, comprend la dynamique complexe du trafic et l'intention du véhicule grâce à l'intégration visuelle, interprète des données numériques précises à partir d'entrées symboliques et génère des trajectoires optimisées et centrées sur la sécurité grâce à l'inférence contextuelle. Pour un déploiement en temps réel, REACT utilise une conception de fusion de chemin résiduel (RTF) et une stratégie d'adaptation de bord spécialisée pour réduire la complexité du modèle et améliorer l'efficacité de l'inférence. Les résultats d'évaluation sur le benchmark DeepAccident démontrent des performances de pointe, atteignant une réduction de 77 % du taux de collision, une amélioration de 48,2 % de la qualité panoptique vidéo (VPQ) et une latence d'inférence de 0,57 seconde.