Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Alucinaciones y extracción de información clave en textos médicos: una evaluación exhaustiva de modelos lingüísticos de código abierto

Created by
  • Haebom

Autor

Anindya Bijoy Das, Shibbir Ahmed, Shahnewaz Karim Sakib

Describir

Este artículo investiga la eficacia de los modelos de lenguaje a gran escala (LLM) de código abierto para extraer eventos clave (motivos de ingreso, eventos hospitalarios importantes y medidas de seguimiento importantes) de los informes médicos, en particular los informes de alta. También evaluamos la incidencia de alucinaciones, que puede afectar la precisión y la fiabilidad de los LLM. Experimentos con LLM como Qwen2.5 y DeepSeek-v2 demuestran un excelente rendimiento en la extracción de motivos de ingreso y eventos ocurridos durante la hospitalización, pero presentan inconsistencias en la identificación de recomendaciones de seguimiento. Esto pone de relieve los desafíos que supone el uso de LLM para una síntesis completa.

Takeaways, Limitations

Takeaways: Demostramos que el LLM de código abierto es eficaz para extraer resúmenes médicos, en particular los motivos de ingreso y los incidentes críticos hospitalarios. Esto sugiere el potencial para desarrollar un sistema automatizado de resúmenes médicos basado en LLM.
Limitations: Los LLM han mostrado una extracción inconsistente de cierta información, como las recomendaciones de seguimiento. Se debe considerar la posibilidad de alucinaciones en los LLM y los consiguientes problemas de fiabilidad de la información médica. Se necesita más investigación para utilizar los LLM en resúmenes médicos completos.
👍