Cet article présente l'apprentissage par renforcement inverse de la diversité de qualité (QD-IRL), un nouveau cadre qui intègre l'optimisation de la diversité de qualité (QD) à l'apprentissage par renforcement inverse (IRL) pour surmonter les limites de l'apprentissage par stratégie mono-expert et apprendre des comportements diversifiés et robustes. Plus précisément, nous introduisons la curiosité comportementale extrinsèque (EBC), qui offre des récompenses de curiosité supplémentaires basées sur la nouveauté d'un comportement par rapport aux archives comportementales existantes. Des expériences sur diverses tâches de locomotion robotique démontrent que l'EBC améliore les performances des algorithmes QD-IRL tels que GAIL, VAIL et DiffAIL jusqu'à 185 %, et surpasse les performances des experts jusqu'à 20 % dans un environnement humanoïde. De plus, nous démontrons que l'EBC est applicable aux algorithmes d'apprentissage par renforcement QD basés sur l'arborescence de gradient et qu'il s'agit d'une technique générale qui améliore significativement les performances. Le code source est disponible sur GitHub.