Les modèles génératifs existants pour la prévision des séries temporelles transforment des distributions a priori simples (généralement gaussiennes) en distributions de données complexes. Cependant, en raison de l'initialisation de l'échantillonnage indépendante des données passées, ils ne parviennent pas à capturer correctement les dépendances temporelles et limitent la précision des prévisions. De plus, ils traitent les résidus uniquement comme des objectifs d'optimisation, ignorant des schémas significatifs tels que les biais systématiques ou les structures distributionnelles importantes. Dans cet article, nous proposons le Conditional Guided Flow Matching (CGFM), un nouveau cadre indépendant du modèle qui étend le flow matching en intégrant les sorties de modèles de prévision auxiliaires. Ce cadre apprend de la structure probabiliste des résidus de prévision et exploite les distributions prédictives des modèles auxiliaires pour réduire la difficulté d'apprentissage et améliorer les prévisions. Le CGFM intègre les données historiques à la fois comme condition et comme guide, utilise des chemins conditionnels bidirectionnels (conditionnant sur les mêmes données passées pour la source et la cible) et utilise des chemins affines pour éviter les intersections de chemins, maintenir la cohérence temporelle et améliorer l'alignement distributionnel sans mécanismes complexes. Les résultats expérimentaux sur divers ensembles de données et modèles de base démontrent que le CGFM surpasse systématiquement les modèles de pointe, améliorant ainsi les performances de prévision.