Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Role of Model Confidence on Bias Effects in Measured Uncertainties for Vision-Language Models

Created by
  • Haebom

저자

Xinyi Liu, Weiguang Wang, Hangfeng He

개요

대규모 언어 모델(LLM)의 활용이 증가함에 따라, 모델의 지식 부족을 반영하는 인식론적 불확실성을 정확하게 평가하는 것이 중요해졌습니다. 그러나, 여러 유효한 답변에서 발생하는 우발적 불확실성으로 인해, 이러한 불확실성을 정량화하는 것은 어렵습니다. 본 연구는 시각적 질의 응답(VQA) 과제에서 프롬프트가 도입한 편향을 완화하는 것이 GPT-4o의 불확실성 정량화를 개선한다는 것을 발견했습니다. 또한, 모델 신뢰도가 낮을 때 LLM이 입력 정보를 복사하는 경향을 바탕으로, GPT-4o 및 Qwen2-VL에서 다양한 무편향 신뢰도 수준에서 이러한 프롬프트 편향이 측정된 인식론적 및 우발적 불확실성에 미치는 영향을 분석했습니다.

시사점, 한계점

시사점:
프롬프트 편향 완화는 불확실성 정량화를 개선합니다.
낮은 무편향 모델 신뢰도는 편향으로 인한 인식론적 불확실성 과소평가와 관련이 있습니다.
낮은 무편향 모델 신뢰도는 우발적 불확실성 추정의 편향 효과 방향에 유의미한 영향을 미치지 않습니다.
한계점:
연구에서 사용된 구체적인 방법론, 데이터셋, 모델에 대한 세부 정보는 명시되지 않았습니다.
불확실성 정량화를 위한 더 발전된 기술 개발에 대한 가능성만을 제시하고, 구체적인 방향성은 제시되지 않았습니다.
👍