Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

La siguiente revolución de la inteligencia artificial

Este año se celebran los 100 años del nacimiento del genio matemático Alan Turing, quien fue uno de los pioneros del cómputo. Anticipándose a la...

súper Turing

Este año se celebran los 100 años del nacimiento del genio matemático Alan Turing, quien fue uno de los pioneros del cómputo. Anticipándose a la era electrónica, Turing propuso buscar una máquina que fuese adaptable e inteligente como el cerebro humano. De ahí salió la ahora famosa Prueba de Turing.

Ahora Hava Siegelmann, científica de la Universidad de Massachussetts Amherts, una experta en redes neuronales, ha tomado el trabajo de Turing como el siguiente paso lógico a seguir. Lo que se intenta hacer es lo que ha llamado la computación ‘Súper Turing’, que es un sistema computacional adaptable que aprende y evoluciona, tomando del medio ambiente información de la misma manera que lo que nuestros cerebros hacen en computadoras tradicionales. En su investigación postdoctoral, ella y su colega Jeremie Cabessa, reportan sus avances en la publicación Neural Computation.

“Este modelo está inspirado por el cerebro”, dice Siegelmann, “es una formulación matemática de las redes neuronales del cerebro con sus habilidades adaptivas”. Los autores muestran que cuando el modelo es instalado en un medio ambiente ofreciendo estímulos sensoriales constantes (como pasa en el mundo real), y cuando todos los estímulos–respuestas son considerados en el tiempo de vida de una máquina, el modelo Súper Turing puede dar un repertorio de comportamientos que tiende a crecer exponencialmente, sobrepasando a lo que se puede hacer en el modelo clásico de Turing. De acuerdo a la investigación, el modelo Súper Turing es superior para tareas del tipo humano y para el aprendizaje.

“Cada vez que una máquina Súper Turing obtiene información, se convierte en una máquina diferente:”, indica Siegelmann. “Esto no es lo que se quiere para una PC que funciona muy bien para procesar información y hacer cálculos muy rápidos. Pero si se quiere por ejemplo que un robot acompañe a una persona ciega a la tienda de abarrotes, sería deseable tener algo que pueda navegar en un medio ambiente dinámico. Si se desea una máquina que pueda interactuar con éxito con un humano, hay que adaptarlo a la manera de hablar, reconocer patrones faciales y permitir interacciones entre ellos para evolucionar como nosotros lo hacemos. Esto es lo que este modelo ofrece”.

“Las computadoras clásicas funcionan secuencialmente en un medio ambiente muy orquestado para el que fueron programadas. Pueden parecer inteligentes si les decimos qué esperar y cómo responder”, dice Siegelmann. Pero no pueden tomar nueva información o usar ésta para mejorar su capacidad de resolución de problemas, para dar alternativas enriquecidas o para otras tareas en donde se involucra inteligencia”.

En 1948, Turing predijo que otro tipo de computación podría emular la vida misma, pero murió sin desarrollar su concepto para una máquina que podría usar lo que él llamó ‘inferencia adaptiva’. En 1933, Siegelmann, en ese entonces en la Universidad de Rutgers, mostró de forma independiente en su tesis doctorial que un tipo muy diferente de computación totalmente opuesto al modelo de la ‘computadora que calcula’ podría hacerse, de acuerdo con el modelo bosquejado por Turing. Ella publicó sus hallazgos en la revista Science y después en un libro.

“Yo era lo suficientemente joven para ser curiosa, queriendo entender por qué el modelo de Turing se veía tan fuerte”, indica Siegelmann. “Intenté probar la conjetura de que el modelo de redes neuronales es muy débil y en lugar de eso hallé que parte del trabajo que había analizado antes estaba equivocado. Me sorprendió de hallar vía el análisis matemático que el modelo neuronal tiene algunas capacidades que sobrepasan el modelo de Turing, por lo que decidí releer a Turing  y encontré que el creía en un modelo adaptable que fuese más fuerte que el modelo del cálculo contínuo”.

Cada paso en el modelo de Siegelmann empieza con una nueva máquina de Turing que calcula una sola vez y se adapta. Por ejemplo, el conjunto de los números naturales se representa por la notación Aleph cero, que representa el número de diferentes cálculos infinitos que son posibles en una máquina clásica de Turing. En contraste, Siegelmann demuestra que en una computación de una máquina Súper Turing hay 2 a la potencia aleph cero. Así, “si una máquina de Turing tiene unos 300 comportamientos, su contraparte Súper Turing podría tener unos 2300, más que todo el número de átomos observables en el universo”, explica.

La nueva máquina Súper Turing podrá no solamente ser flexible y adaptable, sino también económica. Esto significa que cuando se presente con un problema visual, podrá actuar más como lo hace el cerebro humano y elegir características del medio ambiente en las cuales enfocarse, en lugar de usar la potencia para medir toda la escena visual, como lo hace una cámara. Esta economía de esfuerzo, usando solamente la atención que se necesita, es otro hito en la inteligencia artificial, indica Siegelmann.

“Si una máquina de Turing es un tren sobre una vía fija, una máquina súper Turing es como un aeroplano. El marco de trabajo aquí permite a un estímulo cambiar a la computadora en cada paso del cálculo, comportándose más cercanamente a lo que consideramos una adaptación y evolución contínua del cerebro.

Siegelmann y dos colegas más han recibido un apoyo monetario importante para trabajar en la primera computadora Súper Turing, basándose en las redes neuronales analógicas recurrentes. Se espera que este dispositivo introduzca un nuevo nivel de inteligencia nunca antes visto en las máquinas.

En mi opinión, la parte teórica parece fascinante, pero la creación de una máquina como la que sugiere Siegelmann no parece que pueda construirse fácilmente. Quizás a nivel abstracto las ideas sean interesantes e incluso correctas, pero en términos reales, no veo que este desarrollo pueda darse en poco tiempo.

Fuente: Science Daily

La publicación original (tiene un costo), aquí.

Comentarios