본 논문은 대규모 언어 모델(LLM)의 의료 진단 능력에 대한 연구 결과를 제시합니다. 기존 연구에서 LLM이 특정 상황에서 의사보다 우수한 성능을 보였다는 결과가 있었지만, 능동적인 정보 수집이 필요한 상호 작용적 진단 환경에서는 성능이 크게 저하되는 현상이 관찰되었습니다. 본 연구는 이러한 성능 저하의 원인을 초기 진단 단계, 특히 정보 수집 효율성 및 초기 진단 형성에 있다는 것을 밝히고, 이를 해결하기 위해 플러그 앤 플레이 방식으로 향상된 LLM 에이전트(PPME LLM)를 개발했습니다. 중국과 미국 의료 시설의 350만 건 이상의 전자 의료 기록을 활용하여 감독 학습과 강화 학습 기법으로 초기 질병 진단 및 현병력 질문 모델을 통합했습니다. 실험 결과, PPME LLM은 기존 모델 대비 30% 이상의 성능 향상을 보였으며, 상호 작용적 진단 환경에서 완전한 임상 데이터를 사용한 경우와 비슷한 수준의 최종 진단 정확도를 달성했습니다. 이는 자율 진단 시스템 개발의 가능성을 시사하지만, 추가적인 검증 연구가 필요합니다.