강화 학습(RL)에서 안전성을 확보하기 위해 널리 사용되는 쉴딩(Shielding) 기술은, 에이전트의 액션이 형식적 명세에 부합하도록 보장한다. 기존의 쉴딩 방식은 고정된 논리적 명세와 수작업으로 만들어진 추상화를 사용하기 때문에, 환경 가정이 위반될 경우 적응하지 못하는 한계가 있다. 본 논문에서는 LTL(Linear Temporal Logic)의 표현력이 풍부한 부분 집합인 GR(1) 명세를 기반으로 하는 최초의 적응형 쉴딩 프레임워크를 개발했다. 이 프레임워크는 런타임에 환경 가정 위반을 감지하고, ILP(Inductive Logic Programming)를 사용하여 GR(1) 명세를 자동으로 온라인에서 수정한다. 이를 통해 쉴드가 유연하게 진화하여 생존 가능성을 보장하고, 필요할 때만 목표를 약화시킨다. Minepump와 Atari Seaquest를 대상으로 한 두 가지 사례 연구를 통해, (i) 보조 보상 최적화 시 정적 기호 컨트롤러가 매우 비효율적일 수 있으며, (ii) 적응형 쉴드를 장착한 RL 에이전트는 정적 쉴드에 비해 거의 최적의 보상과 완벽한 논리적 준수를 유지함을 보였다.