Cet article présente une nouvelle méthode de résolution et d'apprentissage pour les MDP robustes (r-MDP). Cette méthode étend les MDP en modélisant explicitement l'incertitude épistémique sur la dynamique de transition. L'apprentissage des r-MDP par interactions avec un environnement inconnu permet la synthèse de politiques robustes avec des garanties de performance prouvables (PAC), mais peut nécessiter de nombreuses interactions avec les échantillons. Dans cet article, nous proposons une nouvelle méthode de résolution et d'apprentissage des r-MDP basée sur une représentation factorisée de l'espace d'état qui exploite l'indépendance des incertitudes du modèle entre les composants du système. La synthèse de politiques pour les r-MDP factorisés est complexe et conduit à un problème d'optimisation non convexe, mais nous démontrons comment la reformuler en une approche de programmation linéaire exploitable. Sur la base de cette approche, nous proposons également une méthode d'apprentissage direct de la représentation factorisée du modèle. Les résultats expérimentaux démontrent que l'exploitation de la structure factorisée permet des gains dimensionnels en efficacité d'échantillonnage et génère des politiques robustes, plus efficaces que les méthodes de pointe, avec des garanties de performance plus strictes.