Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

OmniSpatial: Towards Comprehensive Spatial Reasoning Benchmark for Vision Language Models

Created by
  • Haebom

저자

Mengdi Jia, Zekun Qi, Shaochen Zhang, Wenyao Zhang, Xinqiang Yu, Jiawei He, He Wang, Li Yi

개요

OmniSpatial은 인지 심리학에 기반한 종합적이고 어려운 공간 추론 벤치마크입니다. 동적 추론, 복잡한 공간 논리, 공간 상호작용, 관점 취하기 등 4가지 주요 범주와 50개의 세부 범주로 구성되며, 8,400개 이상의 질문-답변 쌍으로 이루어져 있습니다. 기존의 개방형 및 폐쇄형 소스 VLM들이 포괄적인 공간 추론에 상당한 한계를 보임을 실험을 통해 보여주고, 공간 추론을 강화하기 위한 PointGraph(명시적 장면 그래프 단서) 및 SpatialCoT(새로운 관점의 사고 연쇄)라는 두 가지 전략을 탐구합니다.

시사점, 한계점

시사점:
기존 VLM의 공간 추론 능력의 한계를 명확히 보여주는 새로운 벤치마크 OmniSpatial 제시.
공간 추론 향상을 위한 PointGraph와 SpatialCoT 전략 제안.
인지 심리학에 기반한 보다 포괄적이고 복잡한 공간 추론 과제 제시.
한계점:
OmniSpatial이 아직 초기 단계의 벤치마크이므로, 향후 더욱 다양하고 복잡한 공간 추론 과제 추가가 필요할 수 있음.
제안된 PointGraph와 SpatialCoT 전략의 일반화 성능 및 효율성에 대한 추가적인 연구가 필요함.
현재 벤치마크의 규모가 더욱 확장될 필요가 있을 수 있음.
👍