Cet article propose une méthode d'apprentissage par renforcement par discrimination d'ensemble multi-objectifs utilisant des actions à paramètres mixtes pour résoudre le problème de compatibilité multi-objectifs en conduite autonome. Les méthodes d'apprentissage par renforcement existantes peinent à atteindre la compatibilité multi-objectifs dans des scénarios de conduite complexes en raison de leur réseau à évaluation unique et de leur structure d'espace d'action à type unique. La méthode proposée relève ces défis en utilisant une méthode de discrimination d'ensemble qui se concentre sur différents objectifs via des fonctions de récompense indépendantes. De plus, en intégrant des structures d'espace d'action à paramètres mixtes, elle génère des comportements de conduite qui englobent à la fois un guidage abstrait et des commandes de contrôle concrètes. Enfin, elle développe un mécanisme de recherche basé sur l'incertitude qui prend en charge les actions mixtes pour accélérer l'apprentissage de politiques compatibles avec les objectifs multiples. Les résultats expérimentaux obtenus sur des scénarios d'autoroutes à plusieurs voies, à la fois sur simulateur et sur le jeu de données HighD, démontrent que la méthode proposée apprend efficacement la conduite autonome compatible avec les objectifs multiples en termes d'efficacité, de cohérence comportementale et de sécurité.