본 논문은 강화학습(Reinforcement Learning, RL)에서 복잡하고 시간적으로 확장된 작업 목표 및 안전 제약 조건에 대한 일반화 문제를 해결하기 위해, 선형 시간 논리(Linear Temporal Logic, LTL)를 활용한 새로운 방법인 GenZ-LTL을 제시합니다. GenZ-LTL은 LTL 사양을 Büchi 자동화의 구조를 이용하여 도달-회피(reach-avoid) 하위 목표의 시퀀스로 분해합니다. 기존 방법과 달리, 하위 목표 시퀀스를 조건으로 하는 대신 안전한 RL 공식을 통해 각 하위 목표를 하나씩 해결하여 제로샷 일반화를 달성합니다. 또한, 현실적인 가정 하에서 하위 목표-상태 조합의 지수적 복잡성을 완화하기 위한 새로운 하위 목표 유도 관측 감소 기법을 도입합니다. 실험 결과, GenZ-LTL은 기존 방법보다 제로샷 일반화 성능이 훨씬 뛰어남을 보여줍니다.