본 논문은 시각 언어 모델(VLMs)의 시각적 추론 능력 제한을 해결하기 위해 VISER(Visual Input Structure for Enhanced Reasoning)을 제안합니다. VLMs는 지각 특징과 시각적 참조 대상을 신뢰성 있게 연결하는 데 어려움을 겪는데, 이는 계산, 시각적 검색, 장면 묘사, 공간 관계 이해 등의 작업에서 오류로 이어집니다. VISER는 저수준 공간 구조로 시각적 입력을 보강하고, 순차적이고 공간 인식 파싱을 유도하는 텍스트 프롬프트를 추가하는 간단하지만 효과적인 방법입니다. 실험 결과, VISER는 다양한 시각적 추론 작업에서 상당한 성능 향상을 보였습니다. 특히 GPT-4o의 시각적 검색 정확도를 25.00%, 계산 정확도를 26.83% 향상시켰고, 장면 묘사의 편집 거리 오류를 0.32 감소시켰으며, 2D 합성 데이터셋의 공간 관계 작업 성능을 9.50% 향상시켰습니다. 순수하게 언어적인 접근 방식보다 시각적 입력 설계의 중요성을 강조하며, 저수준 시각 구조화가 구성적인 시각적 추론을 향상시키는 강력하고 미개척된 방향임을 시사합니다.