Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Desde que las computadoras han existido, se ha intentado que hagan las cosas que llamamos “inteligentes” entre los humanos. Buscamos que, de alguna manera, las máquinas se asemejen cada vez en nosotros, que piensen como nosotros y por ende, que sean una ayuda para hacer incluso, más y mejores cosas. No es casualidad que se diga que “el hombre es la medida de todas las cosas“.

Así, las computadoras actuales, como los humanos, pueden aprender. Pero cuando Google, por ejemplo, trató de llenar el campo de búsqueda solamente basándose en las primeras teclas que se daban, o bien, cuando el iPhone predice las palabras que uno quiere poner en el mensaje que va a escribir, solamente imita de manera muy limitada lo que es capaz de hacer el ser humano. El reto es pues entrenar a una computadora a comportarse como lo hace el cerebro humano, tanto tecnológica como fisiológicamente, probando los límites de la computadora y la ciencia del cerebro.

Los investigadores de IBM parecen tener un enfoque que permite combinar ambos mundos. La compañía anunció que ha construído dos chips prototipo, que dicen, pueden procesar información como lo hacen los seres humanos en lugar de los chips que se usan en las computadoras e incluso, en las supercomputadoras.

Los chips representan un paso gigantesco en un proyecto de seis años que ha involucrado a unos 100 investigadores y a unos 41 millones de dólares en patrocinio por parte de DARPA (Defense Advanced Research Projects Agency). Este es el brazo del pentágono que se enfoca en investigaciones de largo término y que previamente trajo al mundo la red Internet. IBM ha dado una cantidad no revelada de dinero para este último proyecto.

Los prototipos ofrece evidencia ulterior del crecimiento en la idea del “procesamiento en paralelo“, lo cual signifca que las computadoras hagan muchas tareas diferentes simultáneamente. Esto se usa en muchos casos para procesar imágenes muy sofisticadas o bien, para manejar cantidades masivas de datos.

Los usos de los chips IBM son aún prosaicos, como el manejar un auto simulado a través de un laberinto o bien, el jugar Pong. Puede pasar una década o más antes de que los chips logren su camino fuera del laboratorio y se posicionen en productos reales. Lo que es importante ahora, sin embargo, no es lo que ahora están haciendo los chips, sino cómo lo están haciendo, dice Giulio Tononi, un profesor de psiquiatría de la Universidad de Wisconsin en Madison, quien trabajó con IBM en el proyecto.

La habilidad de los chips para adaptarse a los tipos de información de la cual no estaban específicamente programados se espera que sea su característica más importantes. “Hay mucho trabajo por hacer aún, pero lo más importante es usualmente el primer paso“, dijo Tononi en una entrevista y agregó: “Y no sólamente es un paso, son un par de pasos“.

Los escritores de ciencia ficción y quienes se dedican a la tecnología han imaginado que las máquinas pueden aprender como los seres humanos. El iPhone o los servidores de Google pueden ser programados para predecir ciertos comportamientos basándose en eventos pasados. Pero las técnicas que están siendo exploradas por IBM y otras compañías y universidades alrededor de la “computación cognitiva” podría llevar a la creación de chips que pueden ser capaces de adaptarse a información inesperada.

El interés de IBM en estos chips tiene que ver con su habilidad para ayudar potencialmente a las señales que tenemos de los procesos del mundo real, como la temperatura, el sonido o el movimiento y hacer que esto cobre sentido dentro de la computadora. IBM es de hecho líder en el enlazar estructuras físicas, tales como plantas de energía o semáforos en las calles, y en tecnologías de información, tales como servidores y programas que ayuden a regular estas funciones. Por ello con esta nueva idea podrían hacerse herramientas más eficientes para así monitorear la miriada de la señales analógicas presentes cotidianamente en nuestro medio ambiente.

Dharmendra Modha, líder del proyecto en IBM Research, dijo que los nuevos chips tienen partes que se comportan como neuronas “digitales” y con “sinapsis“, que los hacen diferentes a otros chips. Cada “núcleo“, o motor de procesamiento, tiene computacióm, comunicación y memoria. “Hay que deshacerse virtualmente de todo lo que sabemos sobre como estos chips están diseñados“, dijo, “La clave, la verdadera clave, es realmente que la memoria y el procesador trabajan juntos de forma muy cercana. Hay una cantidad masiva de paralelismo“.

El proyecto es parte de la misma investigación que IBM anunció en el 2009 en donde se pretendía simular la corteza cerebral de un gato, la parte pensante del cerebro, usando una supercomputadora masiva. Usando progresivamente  supercomputadoras más poderosas, IBM pudo simular previamente el 40% del cerebro de un ratón en el 2006, y el de una rata, de forma completa, para el 2007. en el 2009 dicen haber podido simular el 1% de la corteza cerebral del ser humano. Una computadora con el poder de procesamiento del ser humano no está cerca, pero Mohda dice que los últimos desarrollos son un paso muy importante. “Lo que realmente cambia es la perspectiva de ‘¿qué pasa si…? ‘ a ‘¿y ahora qué…?’“, dice Mohda y concluye: “Hoy hemos probado que era posible. Han habido muchos escépticos y habrá más, pero esto completa, en cierto sentido, nuestra primera ronda de innovaciones“.

Fuente: AP

Desde la Red…
Comentarios