[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Translation of Probabilistic Event Calculus into Markov Decision Processes

Created by
  • Haebom

저자

Lyris Xu, Fabio Aurelio D'Asaro, Luke Dickens

개요

본 논문은 확률적 사건 계산(PEC)의 해석 가능성과 표현력을 유지하면서 목표 지향적 추론 기능을 추가하기 위해 PEC 도메인을 마르코프 결정 과정(MDP)으로 변환하는 형식적 방법을 제시합니다. PEC은 불확실한 환경에서 행동과 그 결과에 대한 추론을 위한 논리적 프레임워크이지만, 목표 지향적 추론 메커니즘이 부족한 한계를 가지고 있습니다. 본 논문에서는 "행동 수행 상황"이라는 개념을 도입하여 PEC의 유연한 행동 의미론을 보존하면서 MDP로의 변환을 수행합니다. 이를 통해 MDP에 대한 풍부한 알고리즘과 이론적 도구들을 PEC의 해석 가능한 서술 도메인에 적용할 수 있게 됩니다. 또한, 학습된 정책을 다시 사람이 읽을 수 있는 PEC 표현으로 매핑하는 방법을 제시하여, 시간적 추론 작업과 목표 기반 계획 모두를 지원하며 해석 가능성을 유지하면서 PEC의 기능을 확장합니다.

시사점, 한계점

시사점:
PEC의 해석 가능성과 표현력을 유지하면서 목표 지향적 추론 기능을 추가함.
MDP의 알고리즘과 이론적 도구들을 PEC에 적용 가능하게 함.
시간적 추론과 목표 기반 계획을 모두 지원하는 통합된 프레임워크 제공.
학습된 정책을 해석 가능한 PEC 표현으로 매핑하는 방법 제시.
한계점:
PEC-MDP 변환의 계산 복잡도에 대한 분석 부족.
실제 대규모 응용 사례에 대한 실험적 검증 부족.
MDP로의 변환 과정에서 PEC의 일부 표현력 손실 가능성.
👍