Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Heuristic Transformer: Belief Augmented In-Context Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Oliver Dippel, Alexei Lisitsa, Bei Peng

개요

Transformer 모델은 자연어 처리, 컴퓨터 비전, 순차적 의사 결정 등 다양한 분야에서 뛰어난 문맥 내 학습(ICL) 능력을 보여주었습니다. 강화 학습에서 ICL은 학습을 지도 학습 문제로 재구성하여 파라미터 업데이트 없이도 작업 적응을 가능하게 합니다. 순차적 의사 결정을 위해 Transformer를 활용하는 이전 연구를 바탕으로, 본 논문에서는 Heuristic Transformer (HT)를 제안합니다. 이는 문맥 내 데이터셋에 보상에 대한 신념 분포를 추가하여 더 나은 의사 결정을 달성하는 문맥 내 강화 학습(ICRL) 접근 방식입니다. Variational Auto-Encoder (VAE)를 사용하여 보상에 대한 사후 분포를 나타내는 저차원 확률 변수를 학습시키고, 이를 문맥 내 데이터셋 및 쿼리 상태와 함께 Transformer 정책에 대한 프롬프트로 통합합니다. Darkroom, Miniworld, MuJoCo 환경에서 HT의 성능을 평가한 결과, 효과성과 일반화 측면에서 비교 가능한 기준선을 일관되게 능가하는 것을 보여주었습니다. 본 연구는 신념 기반 보강과 Transformer 기반 의사 결정 간의 격차를 해소하는 유망한 방향을 제시합니다.

시사점, 한계점

시사점:
문맥 내 강화 학습(ICRL)을 위한 새로운 접근 방식인 Heuristic Transformer (HT) 제안.
VAE를 사용하여 보상에 대한 신념 분포를 학습하고, 이를 Transformer 모델의 프롬프트로 활용하여 성능 향상.
Darkroom, Miniworld, MuJoCo 환경에서 기존 방법론 대비 뛰어난 성능 입증.
신념 기반 보강과 Transformer 기반 의사 결정 간의 연결고리 제시.
한계점:
논문에서 구체적인 한계점 언급되지 않음.
👍