Sign In

Prompting Medical Large Vision-Language Models to Diagnose Pathologies by Visual Question Answering

Created by
  • Haebom
Category
Empty

저자

Danfeng Guo, Demetri Terzopoulos

개요

본 논문은 의료 영상 질의응답(VQA) 과제에서 환각 문제와 불균형 데이터로 인한 소수 질병 진단 실패 문제를 해결하기 위해 의료용 거대 비전-언어 모델(MLVLMs)에 대한 두 가지 프롬프팅 전략을 제안합니다. 첫 번째 전략은 질의된 병리에 대한 자세한 설명을 제공하는 것이고, 두 번째 전략은 특정 지표에 대해 성능이 높은 저렴한 약한 학습자를 미세 조정하여 그 판단을 MLVLM에 텍스트로 제공하는 것입니다. MIMIC-CXR-JPG 및 Chexpert 데이터셋에서 실험한 결과, 제안된 방법은 진단 F1 점수를 최대 0.27까지 향상시켰으며, POPE 지표 기반으로 기존 LVLMs의 위음성 예측을 효과적으로 억제하고 재현율을 약 0.07 향상시켰습니다. 또한, 제안된 프롬프팅 전략은 일반적인 LVLMs에도 적용 가능함을 보였습니다.

시사점, 한계점

시사점:
의료 영상 질의응답에서 환각 문제와 데이터 불균형 문제를 효과적으로 완화하는 두 가지 프롬프팅 전략을 제시했습니다.
제안된 전략은 진단 성능(F1 score) 및 재현율을 상당히 향상시켰습니다.
제안된 전략은 일반적인 LVLMs에도 적용 가능합니다.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구가 필요합니다.
다양한 의료 데이터셋에 대한 추가적인 실험이 필요합니다.
특정 지표에 최적화된 약한 학습자의 선택 및 설계에 대한 추가적인 연구가 필요합니다.
👍