Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models

Created by
  • Haebom

저자

Sriram Balasubramanian, Samyadeep Basu, Soheil Feizi

개요

본 논문은 대규모 비전-언어 모델(LVLMs)에서 사고연쇄(CoT) 추론의 신뢰성에 대한 첫 번째 종합적인 연구를 제시합니다. 텍스트 기반과 이미지 기반 편향이 추론 및 편향 표현에 미치는 영향을 조사하며, 기존 방법보다 훨씬 정밀한 CoT 추론 분석을 가능하게 하는 새로운 세분화된 평가 파이프라인을 도입합니다. 이를 통해 모델이 다양한 유형의 편향을 처리하고 반응하는 방식에 대한 새로운 통찰력을 제공하며, 특히 이미지 기반의 미묘한 편향은 명시적인 텍스트 기반 편향에 비해 표현되는 경우가 드물다는 것을 밝힙니다. 또한, 일관성 없는 추론이라는 새로운 현상을 발견하여, 신뢰할 수 없는 CoT로부터 편향된 추론을 감지하는 잠재적인 지표로 제시합니다. 마지막으로, 다양한 수준의 암시적 단서를 가진 LLMs에 대해 동일한 평가 파이프라인을 적용하여 기존 언어 전용 추론 모델이 명시적으로 언급되지 않은 단서를 표현하는 데 어려움을 겪고 있음을 보여줍니다.

시사점, 한계점

시사점:
LVLMs에서 CoT 추론의 신뢰성에 대한 종합적인 분석을 제공합니다.
텍스트 기반 및 이미지 기반 편향이 CoT 추론에 미치는 영향을 밝힙니다.
세분화된 편향 표현 패턴 분류를 위한 새로운 평가 파이프라인을 제시합니다.
이미지 기반의 미묘한 편향이 텍스트 기반 편향보다 표현되는 경우가 드물다는 것을 발견합니다.
"일관성 없는" 추론 현상을 규명하여 편향된 추론 감지의 새로운 지표를 제시합니다.
기존 언어 전용 모델의 암시적 단서 처리 능력의 한계를 보여줍니다.
한계점:
본 연구에서 제시된 평가 파이프라인의 일반화 가능성에 대한 추가 연구가 필요합니다.
다양한 LVLMs 및 LLMs에 대한 추가적인 실험을 통해 결과의 견고성을 검증할 필요가 있습니다.
"일관성 없는" 추론의 원인에 대한 추가적인 분석이 필요합니다.
👍