Federated reinforcement learning (FRL)에서 공유된 gradient를 통해 개인 데이터를 재구성하는 공격의 위험성을 해결하기 위해, Regularization Gradient Inversion Attack (RGIA)를 제안합니다. RGIA는 상태, 보상 및 전환 역학에 사전 지식을 기반으로 한 정규화를 적용하여 재구성된 데이터가 실제 전환 분포에 가깝게 유지되도록 합니다. 이론적으로는 정규화 항이 해 공간을 좁혀 gradient 매칭과 실제 전환 역학을 모두 만족시키는 제한된 부분 집합을 보장함을 증명합니다. 제어 및 자율 주행 태스크에 대한 실험을 통해 RGIA가 재구성된 데이터 전환 분포를 효과적으로 제한하고 로컬 개인 데이터를 성공적으로 재구성할 수 있음을 입증합니다.