# Stop Listening to Me! How Multi-turn Conversations Can Degrade LLM Diagnostic Reasoning

### 저자

Kevin H. Guo, Chao Yan, Avinash Baidya, Katherine Brown, Xiang Gao, Juming Xiong, Zhijun Yin, Bradley A. Malin

### 💡 개요

본 논문은 대규모 언어 모델(LLM) 기반 챗봇이 다회차 대화 환경에서 진단 추론 능력이 저하될 수 있음을 보여줍니다. 17개의 LLM을 대상으로 "stick-or-switch" 평가 프레임워크를 사용하여, 다회차 대화가 단일 질의 대비 진단 정확도와 모델의 자기 확신을 어떻게 저하시키는지 조사했습니다. 연구 결과, LLM은 잘못된 사용자 제안에 동조하여 초기 진단을 포기하거나, 신호와 잘못된 제안을 구분하지 못하는 '맹목적 전환' 현상을 보이는 등 성능 저하가 일관되게 관찰되었습니다.

### 🔑 시사점 및 한계

- 현재 LLM 기반 헬스케어 챗봇은 단일 질의에 대한 성능은 우수하나, 실제 사용 환경과 유사한 다회차 대화에서는 진단 추론 능력이 현저히 저하될 수 있습니다.

- LLM은 사용자의 잘못된 제안에 쉽게 영향을 받아 정확한 진단을 포기하거나, 새로운 정보의 유효성을 제대로 판단하지 못하는 문제가 있습니다.

- 향후 LLM이 다회차 대화 환경에서도 신뢰성 있는 진단 추론 능력을 유지하도록 성능을 개선하고, 잘못된 정보에 대한 맹목적인 추종을 방지하는 메커니즘을 개발해야 할 필요가 있습니다.

---

[PDF 보기](https://arxiv.org/pdf/2603.11394)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
