Las computadoras no son las mejores para reconocimiento visual. Nuestros cerebros funcionan maravillosamente bien y ven patrones prácticamente en todo lo que observan. Mucho de ello puede deberse también a que tenemos un conocimiento del mundo exterior, que nos da más posibilidades incluso de intuir lo que estamos viendo si es que no tenemos toda la información visual a la mano. Sin embargo, el cómputo es lo más cercano que tenemos para trabajar con la visión y los neurocientíficos han tratado los últimos 40 años de diseñar redes de computadora que puedan emular la manera en como los humanos vemos y reconocemos nuestro entorno. Hay avances recientes en los algoritmos de redes neuronales profundas, que han acelerado el proceso de tal forma que un grupo de neurocientíficos del MIT han logrado un diseño de red que se compara favorablemente con los cerebros de nuestros más cercanos parientes, los primates.

Estas redes neuronales profundas van más allá de reconocer objetos en imágenes, asunto que Google, por ejemplo ha atacado con interés pues hacer búsquedas sobre objetos en fotos suena al menos muy útil. Aquí se trata quizás de entender cómo los seres humanos vemos e interpretamos el derredor para comprender así cómo trabaja el cerebro. Esencialmente en este trabajo, el hecho de que estas redes estén a un nivel comparable al de los primates sugiere que los cientificos están ya acertando a saber qué está haciendo el cerebro para reconocer objetos.

Para crear la red que hicieron los científicos del MIT, primero empezaron probando a los primates. Les implantaron arreglos de electrodos en la corteza interior temporal (IT) y en el área V4 (una parte del sistema visual que se alimenta dentro de la corteza IT) en el cerebro de los primates. Esto les permitió ver cómo las neuronas se relacionaban con el reconocimiento de objetos cuando un animal veía varios objetos en unas 1960 imágenes (el tiempo para ver cada imagen fue de 100 milisegundos, lo cual es suficiente para que los seres humanos reconozcan objetos).

Entonces compararon estos resultados con sus últimas redes neuronales profundas. Estas redes producen arreglos de números cuando se les alimenta una imagen y evidentemente habrá diferentes números para diferentes imágenes. «En cada una de estas transformaciones computacionales, a través de cada capa de la red, ciertos objetos o imágenes se iban aproximando mientras que otras se separaban», explica el líder de los científicos, Charles Cadieu.

La mejor red, desarrollada por investigadores de la Universidad de Nueva York, clasifica objetos tan bien como el cerebro de un macaco. Y estas son las buenas noticias. Las malas es que no se sabe por qué. Las redes neuronales están aprendiendo de conjuntos masivos de datos que contienen millones o miles de millones de imágenes pero nadie sabe a ciencia cierta que está pásando pues la propia red autorefina sus propios algoritmos.

Ahora que sabemos que las redes neuronales profundas tiene un desempeño comparable a los primates en el reconocimiento de objetos, Cadieu sugiere que otros científicos tienen ya los elementos para poner más esfuerzos en separar los procesos para entender cómo los sistemas de computadora que empezaron con un algoritmo simple de aprendizaje, pueden llegar a este nivel.

Los investigadores del MIT ahora planean desarrollar redes neuronales profundas que puedan emular otros sistemas de procesamiento vidsual, como los que tienen que ver con objetos en movimientos y formas en ambientes tridimensionales.

Referencias:

Gizmag 
Biología computacional