본 논문은 강화학습(RL)에서 SINDy(Sparse Identification of Nonlinear Dynamics) 알고리즘을 이용하여 대리 환경을 개발하는 접근 방식을 제시한다. OpenAI Gym 환경(특히 Mountain Car와 Lunar Lander)에서의 광범위한 실험을 통해 접근 방식의 효과를 입증한다. SINDy 기반 대리 모델은 환경의 기본 역학을 정확하게 포착하면서 계산 비용을 20-35% 줄이는 것으로 나타났다. Mountain Car에서는 75회, Lunar Lander에서는 1000회의 상호작용만으로 0.997을 초과하는 상태별 상관관계를 달성했으며, Mountain Car 속도의 경우 3.11e-06, Lunar Lander 위치의 경우 1.42e-06만큼 낮은 평균 제곱 오차를 달성했다. 이러한 대리 환경에서 훈련된 RL 에이전트는 원래 환경에서 훈련된 에이전트와 유사한 성능을 보이며, 유사한 수렴 패턴과 최종 성능 지표를 보이면서 더 적은 단계(Mountain Car의 경우 65,075 vs 100,000, Lunar Lander의 경우 801,000 vs 1,000,000)를 필요로 한다. 본 연구는 정확하고 해석 가능한 대리 환경을 생성하는 효율적인 방법을 제공함으로써 모델 기반 RL 분야에 기여한다.