RegexPSPACE: A Benchmark for Evaluating LLM Reasoning on PSPACE-complete Regex Problems
Created by
Haebom
저자
Hyundong Jin, Joonghyuk Hahn, Yo-Sub Han
개요
대규모 언어 모델(LLM) 및 대형 추론 모델(LRM)의 공간적 계산 한계를 조사하는 새로운 벤치마크를 제시합니다. 두 가지 PSPACE-완전 정규 표현식(regex) 문제, 즉 등가 결정(RegexEQ) 및 최소화(RegexMin)를 기반으로 합니다. 이 벤치마크는 LLM 및 LRM의 고급 추론 능력을 평가하기 위한 프레임워크를 제공합니다.
시사점, 한계점
•
시사점:
◦
LLM 및 LRM의 공간적 계산 한계를 평가하기 위한 새로운 벤치마크를 제시합니다.
◦
PSPACE-완전 문제를 사용하여 LLM 및 LRM의 능력을 더 엄격하게 평가합니다.
◦
다양한 규모의 LLM 및 LRM에 대한 광범위한 평가를 수행하고, 실패 패턴을 식별합니다.