Sign In

Neighboring State-based Exploration for Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Yu-Teng Li, Justin Lin, Jeffery Cheng, Pedro Pachuca

개요

강화 학습은 의사 결정 프로세스를 모델링하는 강력한 도구이지만, 많은 과제에서 열린 문제로 남아 있는 탐색-활용 trade-off에 의존합니다. 본 연구에서는 초기 단계의 에이전트에게 인접한 상태의 제한된 영역에서 파생된 행동을 고려하는 것이 탐색 시 더 나은 행동으로 이어질 수 있다는 직관에 따라, 인접 상태 기반의 모델 프리 탐색을 연구합니다. 인접 상태 조사를 기반으로 탐색적 행동을 선택하는 두 가지 알고리즘을 제안하며, 그 중 하나인 ${\rho}$-explore가 이산 환경에서 Double DQN baseline보다 Eval Reward Return 측면에서 49% 더 우수한 성능을 보입니다.

시사점, 한계점

인접 상태 기반 탐색 방법론 제안
${\rho}$-explore 알고리즘이 Double DQN baseline보다 우수한 성능 달성
이산 환경에서의 실험 결과 제시
모델 프리 탐색 연구에 기여
실험 환경이 이산 환경으로 제한됨
다른 환경 및 알고리즘과의 비교 분석 부족
👍