본 논문은 강화학습에서 경험 재현(experience replay)의 효율성을 높이기 위한 새로운 샘플링 방법을 제안합니다. 기존 경험 재현은 버퍼에서 중복을 허용하여 샘플링하는 반면, 본 논문은 지도학습에서 효과적인 것으로 알려진 랜덤 재배열(random reshuffling, RR) 기법을 강화학습에 적용합니다. RR은 데이터를 매 에포크마다 무작위로 섞어 순차적으로 사용하는 방식으로, 이론적으로 더 나은 수렴 특성을 가지며 실험적으로도 기존 방식보다 우수한 성능을 보입니다. 본 논문에서는 균일 및 우선순위 설정에서 RR을 경험 재현에 확장하는 새로운 샘플링 방법을 제안하고, Atari 벤치마크를 통해 심층 강화학습에서의 효과를 검증합니다.