Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Behaviour Discovery and Attribution for Explainable Reinforcement Learning

Created by
  • Haebom

저자

Rishav Rishav, Somjit Nath, Vincent Michalski, Samira Ebrahimi Kahou

개요

본 논문은 강화학습(RL) 에이전트의 의사결정 과정을 설명하는 새로운 방법을 제시합니다. 기존의 설명 가능성 방법들은 단일 상태 또는 전체 경로에 초점을 맞춰 지역적이고 단계적인 통찰력만 제공하거나, 에피소드 수준의 개괄적인 요약에 의사결정을 귀속시키는 한계가 있습니다. 본 논문에서는 여러 결정에 걸쳐 에이전트 행동을 실제로 주도하는 반복적인 전략과 시간적으로 확장된 패턴을 포착하는 의미 있고 해석 가능한 행동 세그먼트에 행동을 귀속시키는 완전히 오프라인의 보상 없는 행동 발견 및 분할 프레임워크를 제안합니다. 상태-행동 시퀀스에서 일관된 행동 클러스터를 식별하고, 개별 행동을 이러한 클러스터에 귀속시켜 세분화된 행동 중심 설명을 제공합니다. 네 가지 다양한 오프라인 RL 환경에서의 평가를 통해 제안된 방법이 의미 있는 행동을 발견하고 충실도, 인간의 선호도, 클러스터 일관성 측면에서 경로 수준의 기준선보다 우수한 성능을 보임을 확인했습니다. 소스 코드는 공개적으로 제공됩니다.

시사점, 한계점

시사점:
강화학습 에이전트의 의사결정 과정에 대한 보다 정확하고 해석 가능한 설명을 제공합니다.
여러 경로에 걸쳐 나타나는 반복적인 행동 패턴을 식별하고, 개별 행동을 의미있는 행동 세그먼트에 귀속시킴으로써, 기존 방법의 한계를 극복합니다.
오프라인 환경에서도 적용 가능한 reward-free 프레임워크를 제공합니다.
실험 결과를 통해 제안된 방법의 우수성을 검증했습니다.
공개된 코드를 통해 재현성을 확보했습니다.
한계점:
제안된 방법의 성능은 사용된 환경에 따라 달라질 수 있습니다.
고차원 상태 공간에서의 성능 저하 가능성이 있습니다.
복잡한 행동 패턴을 효과적으로 설명할 수 있는지에 대한 추가적인 연구가 필요합니다.
👍