# CheXthought: A global multimodal dataset of clinical chain-of-thought reasoning and visual attention for chest X-ray interpretation

### 저자

Sonali Sharma, Jin Long, George Shih, Sarah Eid, Christian Bluethgen, Francine L. Jacobson, Emily B. Tsai, Global Radiology Consortium, Ahmed M. Alaa, Curtis P. Langlotz

### 💡 개요

본 논문은 흉부 X-ray 판독을 위한 최초의 글로벌 멀티모달 데이터셋인 CheXthought를 소개합니다. 이 데이터셋은 501명의 영상의학과 전문의가 생성한 103,592개의 임상적 추론 과정(chain-of-thought)과 6,609,082개의 시각적 주의 집중(visual attention) 정보를 포함합니다. CheXthought는 기존 영상-언어 모델이 학습하지 못했던 임상 추론의 인지 과정과 시각적 주의를 학습하여, 모델의 정확성, 해석 가능성, 불확실성 소통 능력을 향상시키는 것을 목표로 합니다.

### 🔑 시사점 및 한계

- CheXthought 데이터셋은 AI 모델이 흉부 X-ray 판독 시 임상 전문가의 사고 과정과 시각적 탐색 전략을 모방하도록 훈련하는 데 중요한 역할을 할 수 있습니다.

- 시각적 주의 정보를 활용하면 AI 모델이 놓치기 쉬운 병변을 발견하고 환각(hallucination)을 줄이며, 불확실성을 더 잘 표현하는 데 도움을 줄 수 있습니다.

- 현재 데이터셋은 임상 추론과 시각적 주의를 포괄적으로 다루지만, 다양한 희귀 질환이나 복잡한 다중 병변 케이스에 대한 심층적인 추론 과정은 더 많은 연구가 필요할 수 있습니다.

[PDF 보기](https://arxiv.org/pdf/2604.26288)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
