Through the Magnifying Glass: Adaptive Perception Magnification for Hallucination-Free VLM Decoding
Created by
Haebom
Category
Empty
저자
Shunqi Mao, Chaoyi Zhang, Weidong Cai
개요
기존의 비전-언어 모델(VLMs)은 시각적 환각(visual hallucination) 문제를 겪는데, 이는 생성된 응답이 시각적 입력에 근거하지 않은 부정확성을 포함하는 현상을 말합니다. 모델 파인튜닝 없이 이 문제를 해결하려는 노력은 대조적으로 편향을 줄이거나 디코딩 중 시각적 임베딩의 가중치를 증폭하여 환각을 완화하는 데 중점을 두었습니다. 그러나 이러한 접근 방식은 언어 추론 능력을 저하시키는 비용으로 시각적 인식을 향상시킵니다. 본 연구에서는 주의 메커니즘을 기반으로 관련 시각 토큰을 반복적으로 분리하고 해당 영역을 확대하여 모델이 디코딩 중 미세한 시각적 세부 사항에 집중하도록 유도하는 새로운 시각적 디코딩 방법인 Perception Magnifier (PM)를 제안합니다. 특히, 각 디코딩 단계에서 구조적 및 문맥적 정보를 유지하면서 중요 영역을 확대함으로써 PM은 VLM이 시각적 입력에 대한 정밀 검토를 강화하여 더 정확하고 충실한 응답을 생성할 수 있도록 합니다. 광범위한 실험 결과는 PM이 환각 완화뿐만 아니라 언어 생성을 향상시키는 동시에 강력한 추론 능력을 유지함을 보여줍니다. 코드는 https://github.com/ShunqiM/PM 에서 이용 가능합니다.