Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

EvolveNav: Empowering LLM-Based Vision-Language Navigation via Self-Improving Embodied Reasoning

Created by
  • Haebom

저자

Bingqian Lin, Yunshuang Nie, Khun Loun Zai, Ziming Wei, Mingfei Han, Rongtao Xu, Minzhe Niu, Jianhua Han, Hanwang Zhang, Liang Lin, Bokui Chen, Cewu Lu, Xiaodan Liang

개요

본 논문은 오픈소스 대규모 언어 모델(LLM)을 사용하여 시각-언어 내비게이션(VLN) 성능을 향상시키는 새로운 접근 방식을 제안합니다. EvolveNav라는 이 모델은 모델의 추론 능력을 활성화하고, VLN 작업에 대한 추론 속도를 높이기 위해 형식화된 CoT(Chain-of-Thought) 레이블로 훈련하는 2단계 과정을 사용합니다. 또한, 모델 자체의 추론 출력을 자기 강화 CoT 레이블로 사용하여 감독의 다양성을 높이고, 잘못된 추론 패턴과의 대조를 통해 정확한 추론 패턴 학습을 장려합니다. 실험 결과는 다양한 벤치마크에서 기존 LLM 기반 VLN 접근 방식보다 EvolveNav의 우수성을 입증했습니다.

시사점, 한계점

시사점:
VLN 작업에서 LLM의 추론 능력을 향상시키기 위한 새로운 2단계 훈련 방식 제시.
CoT 방식을 활용하여 내비게이션 결정의 정확성과 해석 가능성을 향상.
자기 반사 후속 훈련을 통해 감독의 다양성을 높이고 일반화 능력을 개선.
다양한 벤치마크에서 기존 LLM 기반 VLN 접근 방식보다 우수한 성능을 보임.
코드 공개를 통해 연구의 재현 및 활용 용이성 증대.
한계점:
완벽한 CoT 레이블의 부재로 인한 과적합 문제 해결에 집중.
특정 VLN 작업 환경에 특화된 모델일 수 있으며, 다른 환경에서의 성능에 대한 추가 연구 필요.
모델의 복잡성과 계산 비용에 대한 언급이 없어, 실제 적용 가능성에 대한 추가 분석 필요.
👍