Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Learning Transformer-based World Models with Contrastive Predictive Coding

Created by
  • Haebom

저자

Maxime Burchi, Radu Timofte

개요

DreamerV3 알고리즘의 성공을 바탕으로, 기존 RNN 기반 월드 모델을 Transformer 기반으로 대체하는 연구가 진행되었으나 성능 향상에 한계가 있었습니다. 본 논문에서는 기존의 next state prediction objective가 Transformer의 표현 능력을 충분히 활용하지 못한다는 점을 지적하고, action-conditioned Contrastive Predictive Coding을 활용하여 장기간 예측이 가능한 TWISTER (Transformer-based World model wIth contraSTivE Representations) 월드 모델을 제안합니다. TWISTER는 Atari 100k 벤치마크에서 162%의 human-normalized mean score를 달성하여 look-ahead search를 사용하지 않는 최첨단 방법들 중 새로운 기록을 세웠습니다.

시사점, 한계점

시사점: Transformer 기반 월드 모델의 성능 향상을 위한 새로운 학습 방법(action-conditioned Contrastive Predictive Coding) 제시. look-ahead search 없이 Atari 100k 벤치마크에서 최고 성능 달성. 장기간 예측 가능한 월드 모델 구축 가능성 제시.
한계점: Atari 100k 벤치마크에 대한 성능만 제시되었으며, 다른 환경이나 작업에 대한 일반화 성능은 추가적인 연구가 필요함. 제안된 방법의 계산 비용 및 효율성에 대한 분석이 부족함.
👍