Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Aprendizaje profundo: el nuevo paradigma

La inteligencia artificial no se detiene. Las computadoras tienen cada vez mayor capacidad de procesamiento y es claro que esto ha permitido que muchas de...

La inteligencia artificial no se detiene. Las computadoras tienen cada vez mayor capacidad de procesamiento y es claro que esto ha permitido que muchas de las actividades humanas puedan, de alguna manera, ser emuladas por estas máquinas que cada vez ocupan más nuestra cotidianidad. Hoy en día muchos trabajos de la IA se enfocan a la posibilidad de que las computadoras puedan ver, escuchar e incluso pensar… Pero lo nuevo en este sentido es lo que está ocurriendo dese hace algunos meses: el crecimiento en precisión y velocidad de los programas llamados de aprendizaje profundo, también denominados redes neuronales artificiales, en un afán de compararlas con las redes neuronales del cerebro.

“Hay un buen número de nuevos resultados que resultan asombrosos usando esta técnica del aprendizaje profundo”, dijo Yann LeCun, un científico de computadoras de la Universidad de Nueva York,quien ha hecho trabajo pionero en el reconocimiento de la escritura manuscrita en los Laboratorios Bell.  “El tipo de salto que estamos viendo en la precisión de estos sistemas no es usual, de hecho es muy raro”… Pero los recientes logros han impresionado a un amplio espectro de expertos en el tema. En octubre, por ejemplo, un equipo de estudiantes graduados de la Universidad de Toronto, comandados por el científico Geoffrey E. Hinton, ganó el premio principal de un concurso patrocinado por Merck, para diseñar un programa que ayudara a encontrar moléculas que podrían llevar a la creación de nuevas drogas. Del conjunto de datos describiendo la estructura química de 15 moléculas diferentes, usaron aprendizaje profundo para determinar qué moléculas serían las más idóneas como para ser usadas como agentes químicos efectivos. El logro es más impresionante porque el equipo decidió entrar al concurso en el último minuto y diseñó el software sin conocimiento específico sobre cómo las moléculas se enlazan con sus objetivos.

Algunos indican que Siri, el asistente virtual por voz del iPhone, utiliza aprendizaje profundo, pero hay estadísticas que muestran que esta tecnología no ha tenido una gran acojida por parte de los usuarios de la manzana. Google, por su parte, usa aprendizaje profundo en lo que llaman Street View (en sus mapas), haciendo reconocimiento de imágenes, para reconocer calles particulares.

Las redes neuronales artificiales, una idea de los años cincuentas del siglo pasado, buscan emular la manera en como el cerebro absorbe la información y aprende de ella. En las décadas recientes, el Dr. Hinton (bis-bis nieto de George Boole), ha sido pionero de poderosas nuevas técnicas para procesar patrones en redes neuronales artificiales. Estas se componen actualmente de un arreglo de componentes de software dividido en entradas, capas escondidas y salidas. Los arreglos pueden ser “entrenados” por la exposición repetitiva de patrones como imágenes o sonidos.

Otro ejemplo notable es, por ejemplo, un programa creado por un científico en el laboratorio de IA en la Universidad de Lugano, Suiza, que en un concurso de software contra expertos humanos, sobrepasó a todos identificando imágenes de una base de datos de señalizaciones de tránsito. El programa identificó con precisión 99.46 por ciento de las 50,000 imágenes, mientras que los expertos humanos lograron un 99.22 por ciento. El promedio humano fue de 98.84 por ciento.

Este verano pasado, Jeff Dean (Google technical fellow) y Andrew Y. Ng., un científico de cómputo de la Universidad de Stanford, programó un clúster de 16,000 computadoras para entrenar en el reconocimiento de imágenes de una biblioteca de 14 millones de fotografías, con unos 20,000 objetos diferentes. Aunque la precisión fue baja, 15.8 por ciento, el sistema lo hizo 70 por ciento mejor que los anteriores sistemas.

Pero probablemente el logro más impactante fue el que se diera el mes pasado en Tianjin, China, cuando Richard F. Rashid, científico de Microsoft, dio una conferencia mientras la computadora reconocía sus palabras y las presentaba simultáneamente en inglés, en una enorme pantalla sobre su cabeza. Entonces, en una demostración que arrancó aplausos, hacía pausa en cada oración y las palabras eran traducidas a mandarín (que tiene su propia grafía), acompañado con una simulación de su propia voz en ese idioma, palabras que, desde luego, el Dr. Rashid jamás había dichoi.

Sin embargo, el propio investigador no levanta las campanas al vuelo.  Dice que su sistema está lejos de ser perfecto. “En lugar de tener una de cada cuatro palabras incorrectas, ahora el error es de una en ocho o siete palabras”, escribió en el sitio web de Microsoft. Aún así, “es un cambio dramático en precisión, desde 1979”. Y añade “en la medida que tengamos más información para entrenar, obtendremos mejores resultados”.

Referencias:

NY Times

Comentarios