El modelo más grande entrenado en imágenes de ecocardiografía evalúa estructura y función del corazón
Actualizado el 30 May 2024
Los modelos básicos representan una frontera apasionante en la inteligencia artificial generativa (IA), pero muchos carecen de los datos médicos especializados necesarios para que sean aplicables en entornos sanitarios. Si bien existen modelos de IA para ecocardiogramas, estos generalmente se entrenan en conjuntos de datos relativamente pequeños que comprenden decenas de miles de ejemplos. En un avance significativo, un equipo de expertos en IA ha compilado un conjunto de datos que incluye más de un millón de ecocardiogramas o vídeos de ecografías cardíacas, completos con interpretaciones clínicas. Utilizando esta amplia base de datos, han desarrollado EchoCLIP, un sofisticado algoritmo de aprendizaje automático capaz de interpretar imágenes de ecocardiograma y analizar hallazgos cruciales.
El equipo de investigadores de Cedars-Sinai (Los Ángeles, CA, EUA) creó un conjunto de datos de 1.032.975 videos de ultrasonido cardíaco y las correspondientes interpretaciones de expertos. Esta extensa colección permitió el desarrollo de EchoCLIP, que ofrece evaluaciones a nivel médico de la función cardíaca, cirugías pasadas y dispositivos implantados. Además, EchoCLIP puede identificar a un solo paciente en múltiples vídeos y momentos, reconociendo cambios clínicamente significativos en las afecciones cardíacas. EchoCLIP promete revolucionar la forma en que los cardiólogos evalúan los ecocardiogramas al proporcionar evaluaciones cardíacas preliminares, rastrear cambios a lo largo del tiempo e identificar afecciones cardíacas comunes.
En estudios, EchoCLIP ha demostrado una alta precisión en la medición de la función cardíaca e identificación de dispositivos como marcapasos y válvulas mitral y aórtica reparadas. Además, ha demostrado ser capaz de reconocer pacientes únicos en diferentes estudios y detectar cambios clínicos importantes, como modificaciones posquirúrgicas. El desarrollo de EchoCLIP también ha facilitado la generación de interpretaciones de texto preliminares de imágenes de ecocardiogramas, mejorando aún más su utilidad en entornos clínicos.
"Hasta donde sabemos, este es el modelo más grande entrenado en imágenes de ecocardiografía", dijo el autor correspondiente, David Ouyang, MD, miembro de la facultad del Departamento de Cardiología del Smidt Heart Institute. “El desempeño excepcionalmente sólido de EchoCLIP en la interpretación de imágenes es el resultado de su entrenamiento con casi diez veces más datos que los modelos existentes. Nuestros resultados sugieren que grandes conjuntos de datos de imágenes médicas e interpretaciones realizadas por expertos pueden servir como base para entrenar modelos de fundamentos médicos, que son una forma de inteligencia artificial generativa”.
Enlaces relacionados:
Cedars-Sinai