Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Hallucinations et extraction d'informations clés dans les textes médicaux : une évaluation complète des grands modèles linguistiques open source

Created by
  • Haebom

Auteur

Anindya Bijoy Das, Shibbir Ahmed, Shahnewaz Karim Sakib

Contour

Cet article examine l'efficacité des modèles linguistiques à grande échelle (MLH) open source pour extraire les événements clés (motifs d'admission, événements hospitaliers majeurs et mesures de suivi importantes) des résumés médicaux, notamment des comptes rendus de sortie. Nous évaluons également l'incidence des hallucinations, qui peuvent affecter la précision et la fiabilité des LH. Des expériences utilisant des LH tels que Qwen2.5 et DeepSeek-v2 démontrent d'excellentes performances dans l'extraction des motifs d'admission et des événements survenus pendant l'hospitalisation, mais présentent des incohérences dans l'identification des recommandations de suivi. Cela met en évidence les difficultés d'exploiter les LH pour une synthèse exhaustive.

Takeaways, Limitations

Takeaways: Nous démontrons l'efficacité du LLM open source pour extraire des résumés médicaux, notamment les motifs d'admission et les incidents critiques à l'hôpital. Cela suggère le potentiel de développement d'un système automatisé de synthèse médicale basé sur le LLM.
Limitations : Les LLM ont montré une extraction incohérente de certaines informations, telles que les recommandations de suivi. Le risque d'hallucinations dans les LLM et les problèmes de fiabilité des informations médicales qui en résultent doivent être pris en compte. Des recherches supplémentaires sont nécessaires pour utiliser les LLM pour des résumés médicaux complets.
👍