Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

TARAC: Mitigating Hallucination in LVLMs via Temporal Attention Real-time Accumulative Connection

Created by
  • Haebom

저자

Chunzhao Xie, Tongxuan Liu, Lei Jiang, Yuting Zeng, jinrong Guo, Yunheng Shen, Weizhe Huang, Jing Li, Xiaohua Xu

개요

본 논문은 대규모 비전-언어 모델(LVLMs)의 환각 문제를 해결하기 위한 새로운 훈련 없는 방법인 TARAC(Temporal Attention Real-time Accumulative Connection)을 제안합니다. LVLMs는 다양한 작업에서 뛰어난 성능을 보이지만, 환각 문제로 인해 실제 적용에 어려움을 겪고 있습니다. 기존 연구에서는 OPERA와 VCD 등의 환각 완화 방법이 제시되었지만, 본 논문은 이미지 토큰에 대한 어텐션 감소와 환각 발생 간의 상관관계에 초점을 맞춥니다. TARAC은 이미지 토큰에 대한 어텐션을 동적으로 누적하고 업데이트하여 생성 과정 중 환각을 완화합니다. 실험 결과, TARAC은 다양한 모델과 데이터셋에서 환각을 상당히 감소시키는 효과를 보였으며, 특히 CHAIR 벤치마크에서 VCD 대비 $C_S$를 25.2, $C_I$를 8.7 감소시켰습니다.

시사점, 한계점

시사점:
이미지 토큰에 대한 어텐션 감소가 LVLMs의 환각 발생에 중요한 원인임을 밝힘.
훈련 없이 환각을 효과적으로 완화하는 새로운 방법인 TARAC 제안.
다양한 모델과 데이터셋에서 TARAC의 효과를 검증.
기존 방법인 VCD보다 우수한 성능을 입증.
한계점:
TARAC의 성능 향상이 특정 벤치마크(CHAIR)에 국한될 가능성.
다른 유형의 환각이나 환각의 근본 원인에 대한 해결책이 아닐 가능성.
TARAC의 계산 비용 및 실시간 처리 성능에 대한 분석 부족.
👍