[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Validación multicéntrica de un modelo de aprendizaje profundo para la evaluación de la escoliosis

Created by
  • Haebom

Autor

\V{S}imon Kubov, Simon Kl i\v{c}n ik, Jakub Dand ar, Zden\v{e}k Straka, Karol ina Kvakov a, Daniel Kvak

Describir

Este estudio evaluó la precisión del software de aprendizaje profundo automatizado (Carebot AI Bones) para la medición del ángulo de Cobb, esencial para el diagnóstico de escoliosis. Se compararon y analizaron los resultados de las mediciones realizadas por dos radiólogos musculoesqueléticos y los del software de IA en 103 radiografías de columna anteroposterior obtenidas en 10 hospitales. El rendimiento de la IA se evaluó mediante el análisis de Bland-Altman, el error absoluto medio (EMA), el error cuadrático medio (RMSE), el coeficiente de correlación de Pearson y el coeficiente kappa de Cohen. Se informó que la IA mostró un rendimiento de nivel especializado en la medición y clasificación del ángulo de Cobb.

Takeaways, Limitations

Takeaways:
Demostramos que el ángulo de Cobb de la escoliosis se puede medir con precisión utilizando un software automatizado basado en aprendizaje profundo.
Puede contribuir a resolver los problemas de consumo de tiempo y las diferencias entre medidores en el método de medición manual existente.
Puede ayudar a aumentar la eficiencia del proceso de diagnóstico y clasificación de la escoliosis y mejorar el manejo del paciente.
Limitations:
El tamaño del conjunto de datos utilizado en el estudio fue relativamente pequeño (103 casos).
Se necesitan más investigaciones para determinar la generalización entre diferentes tipos de escoliosis y calidad radiográfica.
Se necesitan estudios prospectivos más amplios para validar completamente la utilidad clínica del software de IA.
Aunque se utilizó como estándar el criterio de dos radiólogos, la concordancia entre los criterios de los expertos podría no ser perfecta (kappa interlectores: 0,59). El error medio de medición (EMA) entre el IA y los expertos fue de 3,89-3,90, lo cual podría estar dentro del rango de error clínicamente significativo.
👍