Red multirregional adaptativa para el análisis de imágenes médicas

Red multirregional adaptativa para el análisis de imágenes médicas

Introducción

En los últimos años el aprendizaje profundo se ha incorporado en el procesamiento de imágenes médicas. No obstante, el conjunto de estas a un gran volumen y con anotaciones seguras suele tener un costo elevado de etiquetado. Además, dicho etiquetado se vuelve complejo pues implica un esfuerzo manual debido a los conocimientos especializados de radiología. Otro limitante que surge con el procesamiento de imágenes médicas, es el tamaño de esta, que suele ser pequeño y difícil de identificar.

En este trabajo se hace un enfoque en el aprendizaje de las conexiones entre lesiones detectadas en imágenes de tomografía computarizada. Para ello, se plantea una red multirregional adaptativa focalizada en distintas regiones.

Métodos

Se diseñó una red de tripletas empleando el aprendizaje métrico para obtener incrustaciones de conjuntos ponderados en distintas regiones. En general se desarrollaron tres capas: las convolucionales compartidas, las ROI y las incrustaciones. Para generar la semejanza y la desemejanza de las lesiones, se utilizó como entrada de la red a las tripletas. En el caso de las fases, se hizo una alimentación a la misma red forward con los parámetros en común.

Cabe destacar dos puntos. El primero, es el uso de características de tipo VGG16 bn en representación de las capas ocultas en común. El segundo tiene que ver con la aplicación de un método de actualización de pesos para el triplete de pérdidas, mejorando la calidad de las métricas de las distintas muestras de selección.

Experimento y discusión

Se utilizaron 32,735 cortes axiales de tomografía computarizada, donde solo el 30% se etiquetó en 8 tipos de lesiones. Para la evaluación de la capacidad de las incrustaciones aprendidas por la red y la clasificación, se dividió de forma aleatoria al conjunto de datos en entrenamiento, validación y prueba.

Entre los resultados de precisión de la red planteada y las dos líneas de base, se arrojaron valores del 91,8%, 58,8% y 89,5% respectivamente. Con estos datos se pudo observar que la AdapNet fue superior a las líneas base debido a su incorporación de manera automática de distintos modelos métricos para clasificar casos complejos. En cuanto a la incrustación métrica S, se determinó que la precisión es máxima a partir de S=800 y después disminuye por el incremento del tamaño de la lesión y la entrada de ruido.

Conclusión

En este trabajo fue posible la clasificación de lesiones de un modo multirregional adaptativo, que permitió la adquisición de información de características tanto locales como globales en un mismo instante. Para superar los limitantes presentados en el análisis de imágenes médicas, se usaron múltiples incrustaciones métricas en función de las regiones de interés. Los resultados obtenidos indican que este método tiene un mejor rendimiento que las líneas de referencia. Con ello se puede decir que este planteamiento es de potencial utilidad para los servicios de procesamiento de imágenes médicas asistidas por ordenador.

Traducido y adaptado de: H. Tao, Z. Wang, Y. Gao, Y. Wang and L. Khan, «Adaptive Multi-Region Network For Medical Image Analysis,» 2020 IEEE International Conference on Image Processing (ICIP), 2020, pp. 71-75, doi: 10.1109/ICIP40778.2020.9191155