본 논문은 로봇 강화학습(RL)의 낮은 접근성이 발전을 저해하는 주요 요인이라는 점을 지적하며, 이를 해결하기 위해 효율적인 오프-폴리시 심층 강화학습 방법을 포함한 고품질 오픈소스 라이브러리를 개발했습니다. 해당 라이브러리는 보상 계산 및 환경 재설정 방법, 널리 사용되는 로봇을 위한 고성능 컨트롤러, 그리고 다양한 과제들을 포함합니다. 실험 결과, PCB 조립, 케이블 라우팅, 물체 이동 등의 과제에서 정책 당 평균 25~50분의 학습만으로도 최첨단 성능을 뛰어넘는 성공률과 강건성을 보이는 정책을 학습하는 것을 확인했습니다. 이는 복잡한 이미지 관측, 실제 환경에서의 학습, 시연 및 사전 경험과 같은 보조 데이터 활용 등의 발전에도 불구하고, 로봇 RL의 구현 세부 사항이 알고리즘 선택만큼 중요하다는 점을 시사합니다.