Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Intention-Conditioned Flow Occupancy Models

Created by
  • Haebom

저자

Chongyi Zheng, Seohong Park, Sergey Levine, Benjamin Eysenbach

개요

본 논문은 강화 학습(RL) 분야에서 사전 학습된 대규모 모델을 활용하는 방안을 제시합니다. 특히, 시간적 종속성이 중요한 RL 환경에서 미래 상태 예측을 위해 flow matching을 활용하는 확률적 모델인 InFOM(intention-conditioned flow occupancy models)을 제안합니다. InFOM은 사용자 의도를 파악하는 잠재 변수를 포함하여 모델의 표현력을 높이고 일반화된 정책 개선을 가능하게 합니다. 36개의 상태 기반 및 4개의 이미지 기반 벤치마크 작업을 통해 InFOM이 다른 사전 학습 방법보다 성능이 우수함을 입증했습니다.

시사점, 한계점

시사점:
RL 분야의 핵심 과제인 샘플 효율성과 견고성을 개선하는 데 기여합니다.
대규모 모델을 사전 학습하여 특정 작업에 적응하고 미세 조정하는 방식을 RL에 적용합니다.
flow matching을 활용하여 복잡한 미래 상태 분포를 모델링합니다.
사용자 의도를 파악하는 잠재 변수를 통해 모델의 표현력을 향상시킵니다.
다양한 벤치마크 환경에서 기존 방법 대비 높은 성능을 보입니다.
한계점:
논문 자체에서 구체적인 한계점 언급은 없음.
👍