Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Task-Agnostic Pre-training and Task-Guided Fine-tuning for Versatile Diffusion Planner

Created by
  • Haebom

저자

Chenyou Fan, Chenjia Bai, Zhao Shan, Haoran He, Yang Zhang, Zhen Wang

개요

본 논문은 다양한 작업에 대한 경로 모델링 능력을 보여준 확산 모델을 기반으로, 전문가 데이터 수집이나 보상 함수 설계에 드는 많은 노력을 줄이고자 하는 새로운 접근 방식을 제시합니다. 기존 다중 작업 계획자나 정책들은 일반적으로 다중 작업 모방을 통한 작업별 시범이나 강화 학습(RL)을 통한 정책 최적화를 위한 작업별 보상 레이블에 의존하는데, 이는 상당한 인적 노력이 필요하다는 한계가 있습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 작업과 무관한 비최적 경로를 포함하는 대규모 열등 데이터를 활용하여 다양한 하위 작업에 일반화될 수 있는 다용도 확산 계획자를 개발하는 것을 목표로 합니다. 이를 위해, 하위 최적 데이터를 활용하여 확산 계획자를 학습하는 두 단계 프레임워크인 SODP를 제안합니다. 먼저, 다양한 다중 작업 경로의 분포를 모델링하여 일반적인 계획 능력을 추출하는 기초 확산 계획자를 사전 훈련합니다. 그런 다음 하위 작업에 대해서는 작업별 보상을 사용한 RL 기반 미세 조정을 통해 확산 계획자를 신속하게 개선하여 작업별 수익률이 더 높은 작업 시퀀스를 생성하는 것을 목표로 합니다. Meta-World와 Adroit를 포함한 다중 작업 도메인에서의 실험 결과는 SODP가 보상 기반 미세 조정을 위한 소량의 데이터만으로도 최첨단 방법을 능가함을 보여줍니다.

시사점, 한계점

시사점:
작업별 시범이나 복잡한 보상 함수 설계 없이 대규모 열등 데이터를 활용하여 다중 작업 계획자를 효율적으로 학습할 수 있는 새로운 방법을 제시합니다.
기존 방법들보다 적은 데이터로도 높은 성능을 달성하여 데이터 효율성을 크게 향상시켰습니다.
다양한 하위 작업에 일반화될 수 있는 강건한 확산 계획자를 개발하는 데 성공했습니다.
한계점:
사전 훈련 단계에서 사용되는 열등 데이터의 질에 따라 성능이 크게 영향을 받을 수 있습니다. 열등 데이터의 품질 관리 및 선별에 대한 추가적인 연구가 필요합니다.
RL 기반 미세 조정 단계에서 여전히 작업별 보상이 필요하다는 점은 완전한 비지도 학습을 지향하는 연구에 비해 제약으로 작용할 수 있습니다.
제안된 방법의 일반화 성능을 더 다양한 작업 도메인에서 검증할 필요가 있습니다.
👍