강화학습(RL) 에이전트의 결정을 설명하는 것은 실세계 적용에서 신뢰도를 구축하고 신뢰성을 보장하는 데 중요합니다. 기존의 설명 가능성 접근 방식은 종종 실행 가능한 통찰력을 제공하는 데 한계가 있는 샐리언시 분석에 의존합니다. 최근에는 데이터 세트 내의 특정 궤적에 RL 결정을 귀속하는 것에 대한 관심이 높아지고 있습니다. 그러나 이러한 방법은 종종 여러 가지 고유한 동작을 포함할 수 있는 긴 궤적에 대한 설명을 일반화합니다. 더욱 세분화된 여러 설명을 제공하는 것이 명확성을 향상시킬 수 있습니다. 본 연구에서는 오프라인 RL 궤적에서 동작 발견 및 동작에 대한 행동 귀속을 위한 프레임워크를 제안합니다. 제안하는 방법은 의미 있는 행동 세그먼트를 식별하여 고차원 에이전트 행동과 관련된 더 정확하고 세분화된 설명을 가능하게 합니다. 이 접근 방식은 최소한의 수정으로 다양한 환경에서 적용 가능하며, 설명 가능한 RL을 위한 동작 발견 및 귀속에 대한 확장 가능하고 다용도의 솔루션을 제공합니다.