[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Benchmarking Spatiotemporal Reasoning in LLMs and Reasoning Models: Capabilities and Challenges

Created by
  • Haebom

저자

Pengrui Quan, Brian Wang, Kang Yang, Liying Han, Mani Srivastava

개요

본 논문은 사이버 물리 시스템(CPS)에서 핵심적인 역할을 하는 시공간 추론 능력을 평가하기 위한 새로운 벤치마크 STARK를 제안합니다. STARK는 상태 추정, 상태에 대한 시공간 추론, 그리고 상황 및 도메인 지식을 통합하는 세계 지식 기반 추론의 세 가지 수준으로 구성된 26개의 다양한 시공간 과제(14,552개의 질문)를 포함합니다. 3개의 LRM과 8개의 LLM을 평가한 결과, LLM은 기하학적 추론이 필요한 과제에서 복잡성이 증가할수록 성능이 저하되는 반면, LRM은 다양한 난이도의 과제에서 견고한 성능을 보이며 기존의 기본 원리 기반 방법과 경쟁하거나 능가하는 것으로 나타났습니다. 세계 지식이 필요한 추론 과제에서는 LLM과 LRM 간의 성능 차이가 줄어들고 일부 LLM이 LRM을 능가하기도 하지만, o3 LRM은 모든 과제에서 최고의 성능을 유지했습니다. 이는 주로 LRM의 크기가 크기 때문으로 분석됩니다. STARK는 LLM과 LRM의 시공간 추론의 한계를 파악하고 지능형 CPS를 위한 모델 아키텍처 및 추론 패러다임의 혁신을 촉진하는 구조적 프레임워크를 제공합니다.

시사점, 한계점

시사점:
다양한 난이도의 시공간 추론 과제를 평가할 수 있는 새로운 벤치마크 STARK 제시
LLM과 LRM의 시공간 추론 능력에 대한 심층적인 비교 분석 결과 제공
기하학적 추론 능력의 중요성과 LLM의 한계를 명확히 제시
세계 지식 기반 추론에서 LLM의 성능 향상 가능성을 보여줌
LRM의 크기가 성능에 미치는 영향을 강조
지능형 CPS를 위한 모델 아키텍처 및 추론 패러다임 연구에 대한 새로운 방향 제시
한계점:
현재 평가된 LLM과 LRM의 종류가 제한적일 수 있음
STARK 벤치마크의 과제들이 실제 CPS 환경을 완벽하게 반영하지 못할 수 있음
LLM과 LRM의 성능 차이에 대한 추가적인 분석이 필요할 수 있음 (예: 모델 아키텍처, 훈련 데이터 등)
👍