본 논문은 강화학습(Reinforcement Learning, RL)에서 복잡하고 시간적으로 긴 작업 목표와 안전 제약 조건에 대한 일반화 문제를 해결하기 위해, 선형 시간 논리(Linear Temporal Logic, LTL)를 활용한 새로운 방법인 GenZ-LTL을 제안합니다. 기존 방법들이 중첩된 장기간 작업과 안전 제약 조건을 처리하는 데 어려움을 겪고, 하위 목표 달성이 불가능할 때 대안을 찾지 못하는 한계를 극복하기 위해, GenZ-LTL은 Büchi 자동화의 구조를 활용하여 LTL 작업 명세를 일련의 도달-회피 하위 목표로 분해합니다. 기존의 하위 목표 순서에 조건을 설정하는 방법과 달리, 안전한 RL 공식을 통해 하위 목표를 하나씩 해결함으로써 제로샷 일반화를 달성합니다. 또한, 현실적인 가정 하에서 하위 목표-상태 조합의 지수적 복잡성을 완화하기 위한 새로운 하위 목표 유도 관측 감소 기법을 도입합니다. 실험 결과, GenZ-LTL은 기존 방법보다 제로샷 일반화 성능이 훨씬 뛰어남을 보여줍니다.