Hoy en día la moda de la inteligencia artificial se encuentra en las redes neuronales y en las técnicas del aprendizaje profundo o reforzado. Lo que actualmente se hace es alimentar a las redes neuronales de grandes cantidades de información, esperando que eventualmente la red organice todos estos datos y pueda aprender. Hay interesantes esfuerzos sobre esta técnica, por ejemplo, el programa AlphaGo, que juega como el mejor del mundo el antiguo juego oriental de Go o bien, el software experimental Jirafa, que en 72 horas de entrenamiento, llegó a jugar como un maestro internacional de ajedrez, asunto que a los humanos puede llevarles una decena de años.

Pero más allá de este tema de las redes neuronales, está esta carrera incesante de hacer que las máquinas puedan desarrollar tecnología que sea cada vez más rápida y que pueda manejar cantidades masivas de datos en poco tiempo. Por ello, es interesante ver que ahora IBM dice haber desarrollado un sistema que dramáticamente recorta los tiempos del análisis masivo de datos para que sus sistemas de redes neuronales lleguen a una solución de forma mucho más rápida.

IBM dice que su meta era reducir el tiempo que le toca a los sistemas de aprendizaje profundo para ser alimentados, logrando pasar de días a horas. Las mejoras podrían ahora mismo ayudar a los radiólogos a obtener de forma más rápida la lectura de imágenes radiológicas que pudiesen presentar anomalías, todo de acuerdo con lo que dice Hillery Hunter, un “fellow” de IBM y director de la aceleración de los sistemas y memoria en IBM Research. Hasta ahora, el aprendizaje profundo solamente se hacía en un servidor, debido a las dificultades para sincronizar datos entre los diversos servidores y procesadores.

En un anuncio hecho el martes pasado, IBM ha dicho que llegó a una solución del software que puede dividir las tareas en 64 servidores que corren 256 procesadores en total y aún así, obtener grandes beneficios en velocidad. La compañía está poniendo esta nueva tecnología en sus servidores IBM Power System, así como en otros sistemas en donde las compañías quieran probar esta solución.

La Nube: Inteligencia artificial

IBM usa 64 de sus propios servidores de la serie Power, en donde se ligan los procesadores que construye la empresa con los procesadores gráficos Nvidia, a través de una interconexión rápida NVlink, quien facilita el flujo rápido de datos entre estos dos tipos de chips.

Pero aparte de esto, IBM llegó a un esquema que se le ha llamado tecnología de clustering, que maneja todas estas partes,. El clustering de IBM actúa como un policía de tránsito entre múltiples procesadores en un servidor dado así como en los otros 63 procesadores que están en el sistema.

De acuerdo a Hunter, si el manejo del tráfico se hace de forma incorrecta, algunos procesadores se quedarán a la espera mientras que otros estarán trabajando. Cada procesador tiene su propio conjunto de datos pero también necesita de los otros procesadores para poder hacerse de una imagen más completa del problema que se quiere resolver. Si los procesadores están fuera de sincronía, no pueden aprender nada. “La idea es la de cambiar la forma en que entrenamos a la red neuronal, de forma que podamos hacerlo más rápido y así incrementar notablemente la productividad”, comenta Hunter.

Expander el aprendizaje profundo de un servidor con 8 procesadores a 64 servidores cada uno con 8 procesadores puede hacer que el desempeño sea de 50 a 60 veces más rápido, lo cual es francamente notable. Por su parte el analista Charles King, fundador de Pund-IT, está impresionado con lo que ha escuchado del proyecto de IBM, diciendo que la compañía ha hallado la manera de escalar hacia arriba los sistemas añadiendo procesadores extras para mejorar el desempeño. Por ejemplo, escalar 100% significa que por cada procesador añadido al sistema, éste podría obtener mejoras en el desempeño del 100%, aunque en realidad esta ganancia no se logra por la complejidad en el manejo de la conectividad y de los problemas asociados a este tema.

Las diferencias entre inteligencia artificial y aprendizaje profundo

Pero aún así, IBM dice que su sistema puede lograr una eficiencia en el escalamiento del 95% entre 256 procesadores, usando lo que llaman el entorno de aprendizaje profundo Caffe, creado en la Universidad de California, en Berkeley. El récord anterior era de Facebook, que en sus investigaciones sobre IA lograban el 89% de escalamiento. Pero hay quien duda de los números de IBM, que son demasiado buenos para ser verdad, dice Patrick Moorhead, presidente de Moor Insight & Strategy, una empresa de investigación con sede en Austin, Texas.

Pero podemos ir a otros números. En términos de reconocimiento de imágenes, el sistema de IBM (usando el entorno Caffe), es de 33.8% de precisión, usando en promedio 7.5 millones de imágenes en 7 horas, dice el gigante azul. El récord anterior era de Microsoft, con 29.8% de precisión y con un trabajo que llevó unos 10 días.

Para que el hombre de la calle entienda esto, IBM dice que ha llegado a una tecnología que es mucho más rápida y más precisa que las tecnologías de aprendizaje profundo que se han usado hasta ahora. Por supuesto, se requiere del hardware que IBM tiene y del software de clustering que usa. Hay que decir además, que toda esta tecnología no usa procesadores Intel.

Referencias: Fortune 

Enlaces Patrocinados
Comentarios