Uno de los problemas que enfrenta la Inteligencia Artificial (IA) es que se tiene que hacer en máquinas con una arquitectura rígida, secuencial, que si bien hace las cosas de forma muy pero muy rápida, tiene limitaciones que se antojan inherentes. Sin embargo, hay modelos teóricos que buscan hacer que la inteligencia de las máquinas sea más parecida a lo que los seres humanos hacen. Y este parece ser el caso de la empresa Gamalon, que ha desarrollado una aplicación que reconoce objetos después de haber visto un par de ejemplos.

Se trata de un programa que aprende a reconocer objetos simples como líneas y rectángulos. Hoy por ejemplo, se usan redes neuronales para este tipo de objetivos pero se requieren de millones de datos, de información, para que la máquina aprenda. Ahí pues está la diferencia con lo que ahora está haciendo Gamalon.

Las redes neuronales pueden por ejemplo, aprender a entender qué es un gato su se le presentan miles y miles de fotografías de felinos. Sería mucho más eficiente hacer como hacen las personas, que de ver un par de ejemplos, llega a la conclusión si en un momento se está viendo a un gato o no.

La compañía Gamalon, con base en Boston, ha desarrollado tecnología que permite a las computadoras, en algunas situaciones, el llegar a conclusiones sobre los objetos que observa, sin necesidad de tener millones de ejemplos para ello. Hace unos pocos días liberó dos productos basados en este enfoque.

Hay que ver si esta técnica puede aplicarse a otras tareas, pues de ser posible eso, se tendría un gran impacto en esta nueva tecnología de software, es decir, de tener un algoritmo que aprendiera de menos datos y entonces, si pensamos en tareas complejas, éstas podrían llevarse a cabo con robots que entendieran mejor el entorno y de manera más rápida o bien, permitir que aprendiesen de las preferencias de los usuarios sin necesidad de compartir los datos.

La siguiente gran prueba de la inteligencia artificial

Gamalon usa una técnica que se llama síntesis Bayesiana para construir un algoritmo capaz de aprender de pocos ejemplos. La probabilidad bayesiana, llamada así en honor del matemático Thomas Bayes, del siglo 18, da un marco de trabajo teórico para refinar predicciones sobre el mundo basándose en la experiencia.

El sistema de Gamalon usa programación probabilística, o código que maneja las probabilidades más que el especificar variables estrictamente definidas. Puede entonces construir un modelo predictivo que explica el conjunto de datos en particular.

De pocos ejemplos, un programa probabilístico puede determinar si es probable que los gatos tengan orejas o colas. Mientras más ejemplos se dan, el código detrás del modelo se reescribe y la probabilidad se refina. Esto da una manera eficiente de aprender nueva información a partir de un conjunto muy limitado de datos.

Hay que señalar que las técnicas de programación probabilística, y Bayesiana en particular, se han usado desde hace muchos años, por ejemplo, en los “sistemas expertos”. Sin embargo, la técnica sin duda se ha refinado y hace un par de años (2015), un equipo del MIT junto con el de la Universidad de Nueva York, usaron métodos probabilísticos para hacer que la computadora reconociera letras manuscritas y objetos, después de ver solamente un ejemplo. No obstante el avance, se consideró en su momento una curiosidad académica.

De todas maneras los propios investigadores indicaron que el reto es mayúsculo porque el programa debe considerar las diferentes explicaciones de lo que se le da a observar.

Lo que a pesar de todo es muy rescatable es que este enfoque tiene potencial porque puede automatizar aspectos para un modelo de aprendizaje de computadora. La programación probabilística podría ser un tema mucho más sencillo de abordar de esta manera y haría que las dificultades de la programación de este tipo de sistemas disminuyeran.

Una ventaja más del esquema adoptado por Gamalon es que al no requerir tantos ejemplos para alimentar al sistema, el aprendizaje de la máquina no requeriría de grandes volúmenes de datos, de grandes centros de procesamiento que trabajaran en paralelo por horas o días. “Hay solamente un par de empresas que realmente pueden pagar este tipo de desarrollos con datos masivos”, dice Ben Vigoda, Co-fundador y CEO de Gamalon.

En teoría al menos, el enfoque de Gamalon podría hacer más simple para alguien construir y refinar un modelo de aprendizaje de computadoras. Al contrario de lo que se hace hoy con aprendizaje profundo, que requiere de un experto en programación y matemáticas, con el enfoque bayesiano las cosas podrían ser mucho más simple. “Con el enfoque de Gamalon un programador podría entrenar un modelo alimentado por ejemplos significativos nada más”.

Vigoda muestra un programa de demostración que usa esta novedosa técnica. Se parece al programa que el año pasado liberó Google, que usa aprendizaje profundo para reconocer el objeto que una persona intenta dibujar. Pero en el caso del programa de Google, tuvo que alimentarse al mismo con dibujos que hicieran el reconocimiento de las características fundamentales, usando millones de dibujos.

Algoritmos y problemas de aprendizaje en la inteligencia artificial

Con Gamalon, se reconocen las características del objeto de forma mucho más simple. Por ejemplo, un triángulo encima de un rectángulo bien puede definirse como el dibujo de una casa. Así, sin importar lo diferente del dibujo hecho, se mantienen las características y el sistema entonces aprende ese concepto.

Un producto de Gamalon, llamado Structure, puede extraer conceptos de textos de forma más eficiente de la que pareciera posible. Por ejemplo, se puede tomar la descripción del fabricante de una televisión y determinar qué producto se está describiendo, que marca, el nombre del producto en sí, la resolución, tamaño y otras características.

Otro producto, Gamalon Match, se usa para categorizar los productos y precios en e inventario de una tienda. Incluso usando diferentes acrónimos o abreviaciones, el sistema puede rápidamente entrenarse para reconocerlos.

Vigoda cree que esta habilidad para aprender puede tener otros beneficios prácticos. Una computadora podría aprender sobre los intereses del usuario sin necesidad de requerir un enorme (e impráctico) número de horas de entrenamiento. Las posibilidades de esta nueva técnica podría abrir un nuevo capítulo alternativo a las redes neuronales profundas, que ha sido la tendencia de la IA en los últimos años.

Referencias: MIT Technology Review