본 논문은 기존의 시각 언어 모델(LVLM) 평가 방식의 한계점을 지적하며, 게임 기반의 새로운 평가 프레임워크인 \method{}를 제안합니다. 기존 방식은 시각적 세부 인지, 데이터 오염, 다중 턴 추론 등을 제대로 평가하지 못한다는 점을 문제 삼고 있습니다. \method{}는 지각, 질의응답, 규칙 준수, 종단 간 플레이 등 네 가지 핵심 과제를 통해 LVLM의 인지 및 추론 능력을 종합적으로 평가하도록 설계되었습니다. 각 과제는 시각적 지각, 추론, 의사결정 등 특정 능력을 평가하도록 고안되었으며, 실험을 통해 현재 LVLM의 한계 (예: 긴 구조화된 출력 처리, 세밀하고 밀집된 요소 인지)를 탐구합니다. 코드와 데이터는 공개적으로 제공됩니다.