본 논문은 대규모 다중 모달 모델(LMMs)의 가스라이팅(특히 부정적 진술을 이용한 가스라이팅) 취약성 문제를 해결하기 위해, 재훈련이나 추가적인 감독 없이 주의 가중치를 재분배하는 접근 방식인 GasEraser를 제안합니다. GasEraser는 오해의 소지를 일으키는 텍스트 토큰의 영향력을 억제하고 시각적으로 근거한 단서에 대한 집중도를 높임으로써, LMM의 강건성을 향상시킵니다. 여러 주요 오픈소스 LMM에 대한 실험 결과, GasEraser가 가스라이팅에 대한 저항력을 상당히 향상시키는 것을 보여줍니다. 특히 LLaVA-v1.5-7B의 경우 오류율을 48.2% 감소시켰습니다.