Cet article propose GenZ-LTL, une nouvelle méthode utilisant la logique temporelle linéaire (LTL) pour résoudre le problème de généralisation de l'apprentissage par renforcement (RL) avec des objectifs de tâches complexes et chronophages, ainsi que des contraintes de sécurité. Pour surmonter les limites des méthodes existantes, qui peinent à gérer des tâches imbriquées à long terme et des contraintes de sécurité, et ne parviennent pas à trouver des alternatives lorsque les sous-objectifs sont inatteignables, GenZ-LTL exploite la structure des automates de Büchi pour décomposer les spécifications des tâches LTL en une série de sous-objectifs d'atteinte-évitement. Contrairement aux méthodes conventionnelles qui conditionnent la séquence des sous-objectifs, GenZ-LTL réalise une généralisation à zéro coup en résolvant les sous-objectifs un par un à l'aide d'une formulation RL sûre . De plus, elle introduit une nouvelle technique de réduction des observations induite par les sous-objectifs pour atténuer la complexité exponentielle des combinaisons sous-objectif-état sous des hypothèses réalistes. Les résultats expérimentaux démontrent que GenZ-LTL surpasse significativement les méthodes existantes en généralisation à zéro coup.