대규모 시각-언어 모델(LVLM)은 객체 환각 문제를 겪는데, 이는 훈련 과정에서 빈번하게 함께 나타나는 객체 간의 허위 상관관계로 인해 발생한다. 본 논문은 LVLM에서 발생하는 허위 상관관계를 형식화하고 정량적으로 평가하기 위해 인과 분석을 도입한다. 구조적 인과 모델(SCM)을 구축하고, Causal-HalBench라는 새로운 벤치마크를 개발하여 허위 상관관계에 대한 모델의 견고성을 평가한다. 또한, 카운터팩추얼 샘플 생성 파이프라인을 제안하여, LVLM 및 텍스트-이미지(T2I) 모델을 활용한다. Causal-HalBench를 사용한 평가 결과, 주요 LVLM들이 허위 상관관계에 취약하다는 것을 확인했다.