Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Hoy vivimos una era en donde los datos son el pan nuestro de cada día. Hoy podemos -si queremos- recolectar, por ejemplo, no cientos o miles de imágenes, sino millones si nos aplicamos en esta tarea. Hay conjuntos de “big data” para prácticamente cualquier cosa y es evidente la necesidad de nuevos algoritmos que puedan analizar más rápidamente estos grandes conjuntos de información.

El equipo ha propuesto usar un algoritmo cuántico lineal, el cual publicó en el Physical Review Letters . Este algoritmo podría ayudar a analizar datos en problemas como precios de artículos, redes sociales y estructuras químicas. “El algoritmo cuántico anterior de este tipo se usaba en un tipo específico de problemas. Necesitamos una actualización si queremos obtener velocidades cuánticas para otro tipo de datos”, dijo Zhikuan Zhao, uno de los autores del trabajo.

El primer algoritmo de un sistema lineal cuántico se propuso en el 2009 por un grupo diferente de investigadores. El algoritmo catalizó mucho de la actual investigación en aprendizaje de máquinas o incluso la propia inteligencia artificial (IA).

Un sistema como el que se propone trabaja sobre una gran matriz de datos. Por ejemplo, un inversionista podría tratar de predecir el precio de ciertos bienes. La matriz puede capturar los datos históricos sobre el movimiento de los precios en razón del tiempo y las características de los datos que podrían haber influido en estos precios para correlacionarlos, lo cual se hace invirtiendo la matriz. La información puede entonces ser usada para extrapolar lo que podría pasar en el futuro.

La Inteligencia Artificial ahora ataca el misterioso Manuscrito Voynich.

“Hay mucho procesamiento involucrado en el análisis matricial. Si llegamos a una matriz de 10,000 x 10,000 entradas, esto es francamente difícil para el cómputo clásico”, dice Zhao. Esto ocurre porque el número de pasos computacionales crece rápidamente con el número de elementos en la matriz: al duplicar el tamaño de la misma, la longitud de los cálculos se eleva al cubo.

El algoritmo del 2009 puede trabajar mejor con matrices grandes, pero depende en muchas ocasiones de cómo están distribuidos los datos. En estos casos, hay relaciones limitadas entre los elementos, lo cual no es cierto frecuentemente con los datos del mundo real. Zhao, Prakash y Wossnig, presentaron un nuevo algoritmo que es más rápido, tanto en el mundo “clásico” como en sus anteriores versiones cuánticas, sin las restricciones que en general se impone en estos algoritmos.

Para ilustrar el asunto, una matriz de 10,000 x 10,000 celdas, con el algoritmo clásico se necesitarían un billón de pasos computacionales. El primer algoritmo cuántico usa decenas de miles de pasos y el nuevo algoritmo apenas cientos de pasos. Este algoritmo se basa en una técnica denominada como “estimación cuántica singular de un valor”.

Google asegura que la Inteligencia Artificial tendrá más impacto que el fuego y la electricidad

Hay que decir que Zhao y colegas están trabajando para poder formalizar su algoritmo y demostrar analíticamente su funcionamiento. También trabajan buscando estimar los costos (y sobre-costos), que podrían existir al tratar de implementarlo.

Comentarios