Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Una computadora simula 530 mil millones de neuronas

IBM Research ha llegado a un nuevo récord al simular 530 mil millones de neuronas en una red modelada en base a la conectividad del...

IBM Research ha llegado a un nuevo récord al simular 530 mil millones de neuronas en una red modelada en base a la conectividad del cerebro de un mono, casi suficiente para un cerebro completo. El artículo que detalla el sistema involucrado “TrueNorth”  se ha titulado simplemente 1014, el cual es número de sinapsis simuladas. La simulación de TrueNorth se ejecutó en una supercomputadora IBM Blue Gene/Q, en los laboratorios en Lawrence Livermore.

Estos números suenan impresionantes. El sistema simula 2 mil millones de núcleos neurosinápticos, los cuales contienen las 530 mil millones de neuroas y las 1014 sinapsis. Todo el sistema corre unas 1500 veces más lento que lo que el hardware podría ejecutar. Comparándolo con el cerebor humano, se estima que tiene entre 0.6 y 24 x 1014sinapsis.

La investigación es un esfuerzo de IBM hacia un sistema del departamento de defensa norteamericano, DARPA, cuyo proyecto se denomina: Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE). Como dice el artículo: ” No hemos construido una simulación realista biológica de un cerebro humano. En lugar de eso hemos simulado una arquitectura cognitiva de cómputo, de ultra baja potencia, novedosa y escalable, que no es del tipo Von Neumann”.

Los núcleos neurosinápticos son chips, cada uno conteniendo 256 neuronas con una red de conexiones de 1024 axones, haciendo un total de 1024×256 sinapsis. El modelo neuronal se basa en una acción integrada de medir y disparar, la cual es relativamente común en las redes neuronales. Al contrario de las neuronas reales, que emiten una serie de pulsos cuando se disparan, estas neuronas artificiales simplemente se disparan cuando la actividad en sus entradas sumadas sobrepasa un límite determinado.  El efecto, sin embargo, desaparece (se fuga) en un tiempo determinado, por lo que las neuronas no tienen una memoria ilimitada sobre la actividad pasada. Se está de acuerdo que este es un modelo estándar razonable de una neurona, pero no contiene ningún elemento de aprendizaje en términos de modificar la fuerza de las conexiones.

La arquitectura en promedio es la simulación de un cerebro de un mono con 2 mil millones de núcleos neurosinápticos, dividido en 77 regiones cerebrales, cada una con su conectividad probable de materia gris o materia blanca. De nuevo, esto es bastante razonable pero es una aproximación cruda de la estructura de un cerebro real. La verdad es que no se tiene información suficiente del cerebro para poder decir que se ha reproducido la estructura del mismo para así reproducir su funcionamiento. Si a esto le añadimos que las neuronas simuladas no tienen capacidad de aprendizaje, entones podemos observar que el modelo es aún más elemental. En cualquier caso, es un logro sorprendente esta simulación y bien podría considerarse como un paso importante en modelar la estructura cerebral.

Algunas ideas de este trabajo pueden verse en el siguiente video promocional:


Referencias:

1014

Comentarios