Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

TensorFlow Lite, para dispositivos móviles

Google ha anunciado una versión para desarrolladores (preview), llamada TensorFlow Lite, la cual promete trabajar con redes neuronales en los dispositivos móviles.

TensorFlow es una herramienta de Google, de código abierto, para hacer computación en paralelo, implementando además redes neuronales así como otros métodos de aprendizaje en la Inteligencia Artificial. TensorFlow se ha diseñado para que sea fácil trabajar en este nuevo paradigma de las redes neuronales. Ahora la nueva versión “light” permite inferencia de baja latencia y modelos de aprendizaje de máquina.

Hasta ahora, TensorFlow soportaba desarrollos móviles a partir del API TensorFlow Mobile, pero los desarrolladores dicen que TensorFlow Lite podría considerarse como una evolución del sistema anterior.

Entre las ventajas de la versión lite, podemos ver que pesa menos, por lo que puede ser usada para hacer inferencias en dispositivos móviles usando menos recursos. Es también de plataforma cruzada, lo que significa por lo pronto Android e iOS al menos. Pero tal vez la parte más importante es que es rápido. Se ha optimizado para dispositivos móviles por lo que los modelos cargan más rápido y pueden usar la aceleración por hadrware.

Podría pensarse, sin embargo, que hacer aprendizaje automatizado en los dispositivos móviles está fuera de las posibilidades de TensorFlow Lite, pero hay que decir que un número cada vez mayor de dispositivos incorporan hardware para procesar cargas de trabajo para aprendizaje de máquinas de forma más eficiente.

Redes de cápsulas: la nueva Inteligencia Artificial

TensorFlow Lite soporta el API de redes neuronales de Android para sacar ventaja de la aceleración por hardware cuando ésta se encuentre disponible. Si no la hay TensorFlow busca optimizar los recursos en la ejecución del CPU.

TensorFlow Lite consiste en un modelo entrenado que se guarda en disco, y en un convertidor que pasa el modelo a entrenar al formato que usa el sistema. Se puede buscar optimizar dicho modelo para máxima velocidad y tamaño mínimo y el modelo puede usarse en una app móvil, donde el API de C++ carga el modelo e invoca al intérprete que lo ejecuta a partir de una serie de operadores.

El API de C++ está en un “wrapper” dentro de Java por conveniencia para Android. El intérprete soporta operador selectivo de carga para minimizar las necesidades de memoria. TensorFlow Lite incluye una clase de modelos de visión que puede identificar cerca de 1000 clases de objetos, así como un modelo conversacional que permite que los usuarios chateen con el sistema..

Comentarios