Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Benchmarking Spatiotemporal Reasoning in LLMs and Reasoning Models: Capabilities and Challenges

Created by
  • Haebom

저자

Pengrui Quan, Brian Wang, Kang Yang, Liying Han, Mani Srivastava

개요

본 논문은 사이버 물리 시스템(CPS)에서 핵심적인 역할을 하는 시공간 추론에 대해, 대규모 언어 모델(LLM)과 대규모 추론 모델(LRM)의 성능을 체계적으로 평가하기 위한 계층적 시공간 추론 벤치마크 STARK를 제안합니다. STARK는 상태 추정, 상태에 대한 시공간 추론, 그리고 상황 및 도메인 지식을 통합하는 세계 지식 기반 추론의 세 가지 수준으로 구성된 26개의 다양한 시공간 과제(14,552개의 챌린지)를 포함합니다. 3개의 LRM과 8개의 LLM을 평가한 결과, LLM은 기하학적 추론이 필요한 과제(예: 다측위 또는 삼각측량)에서 복잡성이 증가함에 따라 성능이 제한적임을 확인했습니다. 반면 LRM은 다양한 난이도의 과제에서 견고한 성능을 보였으며, 종종 기존의 기본 원칙 기반 방법과 경쟁하거나 능가했습니다. 세계 지식이 필요한 추론 과제에서는 LLM과 LRM 간의 성능 차이가 줄어들었고, 일부 LLM은 LRM을 능가하기도 했습니다. 그러나 LRM o3 모델은 모든 평가된 과제에서 최고의 성능을 지속적으로 보였는데, 이는 주로 더 큰 크기의 추론 모델 때문으로 분석됩니다. STARK는 LLM과 LRM의 시공간 추론의 한계를 파악하는 구조적 프레임워크를 제공하여 지능형 CPS를 위한 모델 아키텍처 및 추론 패러다임의 미래 혁신을 촉진합니다.

시사점, 한계점

시사점:
LLM과 LRM의 시공간 추론 능력을 체계적으로 평가하는 새로운 벤치마크 STARK 제시.
기하학적 추론이 필요한 복잡한 시공간 추론 과제에서 LLM의 성능 한계를 명확히 밝힘.
LRM이 다양한 난이도의 시공간 추론 과제에서 뛰어난 성능을 보임. 특히 모델의 크기가 성능에 큰 영향을 미침.
세계 지식 기반 추론 과제에서는 LLM의 성능이 향상되어 LRM과의 성능 차이가 감소.
STARK는 지능형 CPS를 위한 향후 모델 아키텍처 및 추론 패러다임 연구에 중요한 기여.
한계점:
현재 벤치마크에 포함된 LLM과 LRM의 종류가 제한적일 수 있음. 더 다양한 모델에 대한 평가가 필요.
STARK의 과제들이 현실 세계 CPS의 모든 시나리오를 완벽하게 반영하지 못할 수 있음. 실제 응용 시나리오를 더욱 반영한 과제 추가 필요.
LLM과 LRM의 성능 차이에 대한 더 깊이 있는 분석이 필요함 (예: 모델 아키텍처, 학습 데이터 등).
👍