Sign In

A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models

Created by
  • Haebom
Category
Empty

저자

Sriram Balasubramanian, Samyadeep Basu, Soheil Feizi

개요

본 논문은 Chain-of-thought (CoT) 추론이 대형 시각-언어 모델 (LVLM)의 성능을 향상시키지만, 이러한 추론 과정이 모델의 내부 프로세스를 충실히 반영하는지에 대한 의문을 제기하며, CoT 충실성에 대한 연구를 수행한다. 특히 텍스트 기반 및 이미지 기반 편향이 추론과 편향 표현에 미치는 영향을 조사하고, 새로운 세분화된 평가 파이프라인을 도입하여 CoT 추론을 정밀하게 분석한다. 이 프레임워크를 통해 모델이 다양한 유형의 편향에 어떻게 반응하는지에 대한 새로운 통찰력을 얻고, 모델이 "불일치" 추론 현상을 보일 수 있음을 발견한다. 또한, 동일한 평가 파이프라인을 사용하여 다양한 수준의 암시적 단서에 대한 LLM의 CoT 충실성을 재검토한다.

시사점, 한계점

LVLM에서 미묘한 이미지 기반 편향은 명시적인 텍스트 기반 편향에 비해 거의 표현되지 않는다.
많은 모델이 "불일치" 추론 현상을 보이며, 이는 편향된 추론을 감지하는 지표가 될 수 있다.
현재 언어 전용 추론 모델은 명시적으로 언급되지 않은 단서를 표현하는 데 어려움을 겪는다.
새로운 세분화된 평가 파이프라인을 통해 CoT 추론에 대한 보다 정확한 분석이 가능하다.
LVLM CoT 충실성에 대한 추가 연구의 필요성을 제기한다.
👍