Real-DRL은 안전을 최우선으로 고려하며, 실제 물리 시스템(Real Plant)에서 안전하고 성능이 뛰어난 액션 정책을 개발하기 위해 딥 강화 학습(DRL) 에이전트의 런타임 학습을 가능하게 하는 프레임워크입니다. Real-DRL은 DRL-Student, PHY-Teacher, Trigger의 세 가지 상호 작용 구성 요소로 구성됩니다. DRL-Student는 자기 학습과 teaching-to-learn 패러다임에서 혁신을 이루는 DRL 에이전트이며, PHY-Teacher는 안전에 중점을 둔 액션 정책의 물리 모델 기반 설계입니다. Trigger는 DRL-Student와 PHY-Teacher 간의 상호 작용을 관리합니다. Real-DRL은 알려지지 않은 문제와 Sim2Real 격차로 인한 안전 문제를 효과적으로 해결하며, 안전성 보장, 자동 계층 학습, 안전 기반 배치 샘플링 등의 특징을 가집니다. 실제 사족 보행 로봇, NVIDIA Isaac Gym의 사족 보행 로봇, 카트-폴 시스템에 대한 실험을 통해 Real-DRL의 효과와 특징이 입증되었습니다.