본 논문은 다중 모드 대규모 언어 모델(MLLM)에서 객체 환각을 줄이기 위해 널리 사용되는 대조 디코딩 전략의 효과를 분석한다. 연구 결과, 이러한 방법론이 환각 문제를 효과적으로 완화하지 못하며, POPE 벤치마크에서 관찰된 성능 향상은 주로 두 가지 잘못된 요인, 즉 모델 출력 분포에 대한 조악한 일방향 조정과 탐욕적 검색으로 축소되는 적응 타당성 제약에 기인함을 밝힌다. 연구진은 이러한 문제를 더욱 잘 보여주기 위해 일련의 가짜 개선 방법을 제시하고, 대조 디코딩 기술과의 성능을 비교 평가했다. 실험 결과는 대조 디코딩의 성능 향상이 환각 완화라는 본래의 목표와 전혀 관련이 없음을 보여준다.