Un grupo de investigadores de la Universidad de Cambridge junto con la Universidad Simon Fraser, diseñó una serie de pruebas para los algoritmos de reconstrucción de imágenes médicas, basados en IA y aprendizaje profundo.

Hallaron que estas técnicas tienen muchísimos problemas gráficos, «artefactos» (que no son más que errores gráficos, manchas indeseables en una foto, por ejemplo). Curiosamente estos inconvenientes no se encontraron usando técnicas más convencionales y no necesariamente aplicando IA.

El problema se encontró en varios tipos de redes neuronales, lo que sugiere que éste no pudiese resolverse fácilmente. Y es que estos programas «inteligentes» podrían estar dando resultados falsos que comprometieran la salud de los pacientes en un momento dado. Los hallazgos se reportaron en la publicación Proceedings of the National Academy of Sciences.

La revolución de las redes neuronales en el campo de la medicina

Es cierto que ha habido mucho entusiasmo en el uso de la IA en las imágenes médicas, y sí, es cierto también que podría tener el potencial de revolucionar el diagnóstico en la medicina. Sin embargo, como en todos los procedimientos automáticos, existen problemas que no pueden ser ignorados.

De acuerdo con el Dr. Anders Hansen, del Departamento de Matemáticas Aplicadas y Física Teórica de Cambridge, quien lidera el trabajo junto con el Dr. Ben Adcock, de la Universidad Simon Fraser, hay que hacer notar esta dificultad que no es un asunto menor. Se ha encontrado que ciertas técnicas en la IA son altamente inestables en la parte de imagenología médica, por lo que pequeños cambios en la entrada pueden dar enormes valores en la salida.

Por ejemplo, un escaneo MRI puede tomar de 15 minutos a dos horas, dependiendo del área escaneada y el número de imágenes capturadas. Mientras más tiempo pase el paciente en un estudio, más probabilidades hay de tener mejores imágenes, con mayor resolución. Sin embargo, se estima la necesidad de que los pacientes pasen el menor tiempo posible en muchos estudios, porque además eso permite que más pacientes tengan acceso a estos estudios.

Por ello, muchas veces se usan técnicas de la IA para mejorar la calidad de las imágenes MRI, lo que suele pensarse como una atractiva posibilidad para resolver el problema mencionado, es decir, tener las imágenes de mayor calidad en el menor tiempo posible.

La IA puede, por ejemplo, tomar imágenes en baja resolución y hacer una versión de alta resolución. Un algoritmo «aprende» cómo reconstruir estas imágenes a partir de un entrenamiento previo y además, eventualmente poder optimizar lo aprendido.

Esto es muy diferente a las técnicas tradicionales de reconstrucción de imágenes, por ejemplo, usando algoritmos sofisticados de convolución, que se basan en una teoría matemática y no en la lógica de una red neuronal que aprende.

¿Qué se puede hacer ante estos resultados potencialmente erróneos?

Los algoritmos inteligentes tienen que tener dos características para hacerlos confiables: precisión y estabilidad. En la IA usualmente se clasifican las imágenes de objetos con los nombres de los objetos.

Así, una foto de un gato se puede etiquetar como un gato Sin embargo, cambios pequeños, casi imperceptibles en una imagen, pueden hacer que estos algoritmos inteligentes clasifiquen un gato como una mesa, por decir algo.

Esto habla de errores en la clasificación y el ejemplo, aunque muy trivial, puede darse a todos los niveles. Por ejemplo, detalles de un tumor pueden perderse o ser añadidos falsamente. Los detalles pueden oscurecerse y hacer que salgan artefactos en la imagen.

Y es que el problema es que los datos tienen que ver con posibles diagnósticos médicos.

«Cuando se tienen que tomar decisiones críticas que tienen que ver con la salud de los seres humanos, no nos podemos dar el lujo de tener algoritmos que cometan errores», dice Hansen. «Hallamos que la más ligera corrupción en una imagen, que podría haber ocurrido porque un paciente se movió mientras le aplicaban un estudio, puede hacer que los análisis vía la IA den resultados que no tengan la estabilidad que se necesita», comenta el investigador.

Hansen y colegas de Noruega, Portugal, Canadá y el Reino Unido, diseñaron una serie de pruebas para encontrar problemas en los sistemas de imagenología médica existente, como MRI, CT y NMR. Ellos toman en cuenta tres características críticas: inestabilidad debida a pequeñas perturbaciones o movimientos, inestabilidad con respecto a pequeños cambios estructurales, como las que pueden ocurrir cuando hay tumores, aunque sean pequeños. Finalmente, inestabilidad debido a la cantidad de las muestras recolectadas.

El límite del aprendizaje con máquinas

«Desarrollamos una prueba para verificar nuestra tesis de que las técnicas de aprendizaje profundo podrían ser universalmente inestables en el campo de las imágenes médicas», indica Hansen.

«El razonamiento para nuestra predicción es que hay un límite para la reconstrucción, la cual tiene que ver con las restricciones en el tiempo para producir la imagen escaneada. En algún sentido, las técnicas modernas de la IA rompen esta barrera y el resultado se vuelve inestable. Hemos mostrado matemáticamente que se paga un precio por esta inestabilidad, o para ponerlo de manera coloquial: ‘nadie te invita a comer gratis'».