Modelo de IA generativa reduce significativamente el tiempo de lectura de radiografías de tórax

Por el equipo editorial de MedImaging en español
Actualizado el 22 Mar 2025

La interpretación rápida y precisa de las imágenes radiológicas es crucial debido a su impacto significativo en los resultados del paciente, ya que los errores en la interpretación pueden llevar a cambios en el manejo clínico. La radiografía de tórax es uno de los exámenes radiológicos que se realizan con mayor frecuencia, pero su interpretación requiere un alto nivel de experiencia y un tiempo considerable.

Si bien los radiólogos son altamente precisos, sus interpretaciones a menudo enfrentan desafíos de escalabilidad debido al creciente volumen de estudios de imagen. Esto resulta en un aumento de la carga de trabajo, retrasos en el diagnóstico, interrupciones en los flujos de trabajo clínicos y un mayor riesgo de mala interpretación. Las tecnologías de inteligencia artificial (IA) generativa multimodal, capaces de procesar y generar diversos tipos de datos, incluidas imágenes y texto, tienen el potencial de transformar la radiología. Un nuevo estudio ha evaluado el valor clínico de un modelo de IA generativa multimodal específico de dominio para la interpretación de radiografías de tórax, con el objetivo de mejorar el flujo de trabajo radiológico.


Imagen: Ejemplos de interpretaciones de radiografías de tórax con y sin informes generados por IA (foto cortesía de Radiology, DOI: 10.1148/radiol.241646)

Investigadores del Mass General Brigham (Boston, MA, EUA), junto con sus colaboradores, llevaron a cabo un estudio retrospectivo, secuencial, multilector y multicaso. Utilizaron 758 radiografías de tórax de un conjunto de datos público (2009-2017) para evaluar la eficacia de los informes generados por IA. Cinco radiólogos interpretaron las radiografías de tórax en dos sesiones: una sin informes generados por IA y la otra con informes preliminares generados por IA. Dos radiólogos torácicos experimentados evaluaron diversos factores, como el tiempo de lectura, el nivel de concordancia en los informes (utilizando el sistema RADPEER) y la calidad de los informes (en una escala de cinco puntos). Estas métricas se compararon entre las dos sesiones realizadas entre octubre y diciembre de 2023. Se empleó un modelo lineal mixto generalizado para analizar los tiempos de lectura, la concordancia de los informes y las puntuaciones de calidad. Además, se examinó un subconjunto de 258 radiografías de tórax para evaluar la exactitud factual de los informes, comparando las sensibilidades y especificidades entre las dos sesiones mediante la prueba de McNemar.

El estudio, publicado en Radiology, reveló que los informes generados por IA redujeron el tiempo promedio de lectura de las radiografías de tórax (CXR) en un 42% en comparación con la evaluación no asistida de los radiólogos (19,8 segundos frente a 34,2 segundos). En el análisis de subconjunto de 258 casos, los investigadores encontraron que los informes generados por IA resultaron en un aumento de casi el 10% en la sensibilidad para detectar lesiones pleurales (87,4% frente a 77,7%) y un aumento de más del 6% en la sensibilidad para identificar un mediastino ensanchado (90,8% frente a 84,3%).

Sin la asistencia de IA, los investigadores observaron una amplia variabilidad entre los cinco radiólogos en cuanto a sensibilidad (de 54.2% a 80.7%) y especificidad (de 84.9% a 93.4%) para la detección de anomalías en las CXR. Sin embargo, al utilizar informes generados por IA, ese rango fue más estrecho: la sensibilidad varió entre 71.1% y 80.8%, y la especificidad entre 85.2% y 87.3%. Los investigadores concluyeron que el uso de un modelo de IA generativa multimodal específico de dominio mejoró tanto la eficiencia como la calidad de la generación de informes radiológicos.


Últimas Radiografía noticias