본 논문은 다양한 의료 전문 분야에 걸쳐 일반화하는 데 어려움을 겪는 기존의 단일 에이전트 의료 대규모 시각-언어 모델(Med-LVLMs)의 한계를 극복하기 위해, 강화 학습(RL) 기반 다중 에이전트 프레임워크인 MMedAgent-RL을 제안합니다. MMedAgent-RL은 환자를 적절한 전문 분야에 배정하는 분류 의사와 다중 전문가의 판단과 자체 지식을 통합하여 최종 결정을 내리는 주치의, 두 가지의 Qwen2.5-VL 기반 GP 에이전트로 구성됩니다. 전문가 출력의 불일치 문제 해결을 위해, 주치의가 전문가 모방과 실수 수정 간의 균형을 점진적으로 학습하도록 하는 커리큘럼 학습(CL) 기반 RL 전략을 도입했습니다. 다섯 가지 의료 VQA 벤치마크 실험 결과, MMedAgent-RL은 오픈소스 및 독점 Med-LVLMs를 능가하며, 사람과 유사한 추론 패턴을 보이는 것으로 나타났습니다. 특히, 지도 학습 기반 미세 조정 기준 모델 대비 평균 20.7%의 성능 향상을 달성했습니다.
시사점, 한계점
•
시사점:
◦
기존 단일 에이전트 Med-LVLMs의 한계를 극복하는 강화학습 기반 다중 에이전트 협업 프레임워크 제시
◦
동적이고 최적화된 다중 전문가 협업을 통한 의료 영상 분석 및 진단 성능 향상
◦
커리큘럼 학습을 통한 전문가 의견 불일치 문제 해결 및 인간 수준의 추론 패턴 구현
◦
기존 모델 대비 유의미한 성능 향상 (평균 20.7%) 달성
•
한계점:
◦
제안된 모델의 일반화 성능에 대한 추가적인 검증 필요
◦
다양한 의료 데이터셋에 대한 실험 결과 제시 부족
◦
실제 임상 환경 적용을 위한 추가적인 연구 필요
◦
Qwen2.5-VL 모델에 대한 의존성으로 인한 다른 언어 모델 적용의 어려움 또는 제약 존재 가능성