Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models

Created by
  • Haebom

저자

Sriram Balasubramanian, Samyadeep Basu, Soheil Feizi

개요

본 논문은 Chain-of-thought (CoT) 추론이 대형 시각-언어 모델 (LVLM)의 성능을 향상시키지만, 이러한 추론 과정이 모델의 내부 프로세스를 충실히 반영하는지에 대한 의문을 제기하며, CoT 충실성에 대한 연구를 수행한다. 특히 텍스트 기반 및 이미지 기반 편향이 추론과 편향 표현에 미치는 영향을 조사하고, 새로운 세분화된 평가 파이프라인을 도입하여 CoT 추론을 정밀하게 분석한다. 이 프레임워크를 통해 모델이 다양한 유형의 편향에 어떻게 반응하는지에 대한 새로운 통찰력을 얻고, 모델이 "불일치" 추론 현상을 보일 수 있음을 발견한다. 또한, 동일한 평가 파이프라인을 사용하여 다양한 수준의 암시적 단서에 대한 LLM의 CoT 충실성을 재검토한다.

시사점, 한계점

LVLM에서 미묘한 이미지 기반 편향은 명시적인 텍스트 기반 편향에 비해 거의 표현되지 않는다.
많은 모델이 "불일치" 추론 현상을 보이며, 이는 편향된 추론을 감지하는 지표가 될 수 있다.
현재 언어 전용 추론 모델은 명시적으로 언급되지 않은 단서를 표현하는 데 어려움을 겪는다.
새로운 세분화된 평가 파이프라인을 통해 CoT 추론에 대한 보다 정확한 분석이 가능하다.
LVLM CoT 충실성에 대한 추가 연구의 필요성을 제기한다.
👍