Quizás más de uno habrá pensado que ya todo está inventado. Cuando salió Kinect invadió la imaginación de muchos desarrolladores y en estos últimos meses hemos visto todo género de usos de este interesante dispositivo, originalmente creado para jugar videojuegos. Pero… ¿qué tanto más se puede hacer con Kinect?

Investigadores de Cornell tomaron un Kinect estándar, con los manejadores de código abierto y el software PrimeSense Nite y crearon un programa que nos dice qué estamos haciendo. El Kinect se monta en un robot que se mueve a través de los cuartos de una casa, o bien, podría haber un Kinect en cada habitación, para monitorear así lo que uno está haciendo: lavándose los dientes, cocinando, escribiendo, etc.

Sin embargo una nueva pregunta surge: ¿para qué querríamos que una máquina supiese qué estamos haciendo? Pues quizás éste es el futuro de las casas inteligentes del mañana. Es obvio que saber qué está haciendo alguien en la casa podría ser de utilidad. Por ejemplo, podría indicarnos -si estamos cocinando- qué receta de cocina debemos usar.

Pero en un nivel menos ambicioso se podría usar Kinect para monitorear pacientes y asegurarse que comen y beben lo que deben. Una aplicación con ciertos matices éticos sería la de ayudarnos a saber si los trabajadores efectivamente están trabajando. Los investigadores también demostraron que no sólo Microsoft Research puede poner inteligencia artificial en Kinect. Ellos usaron un modelo jerárquico de máxima entropía de Markov el cual puede identificar subactividades como “tomar algo”, “beber“, “colocar“, etc.

No obstante lo interesante de la idea, el conjunto de gestos usado para entrenar a Kinect fue pequeño, frente al que usa Microsoft Research, y los resultados no son muy halagadores. Solamente cuatro personas diferentes lo usaron y se les pidió que desarrollasen una actividad FRENTE al Kinect. Esto es un poco artificial, porque obviamente no vamos a lavarnos los dientes frente al Kinect. El resultado de estas experiencias fue de un 84.31% de efectividad correctamente analizada.

Lo que quizás es más interesante es que el porcentaje en el análisis de la actividad que se realizaba cayó al 64.17%, para personas que usaban por primera vez el equipo. Lo que esto significa es que podría haber información en las personas que -con tareas por demás cotidianas- podría ser reconocida individualmente. Tal vez la forma de lavarse los dientes nos identifique tan bien como las huellas digitales.

Posiblemente se necesite un conjunto más amplio de gestos y más desarrollo de esta idea, pero en principio suena prometedora.

Fuente: Human Activity Detection from RGBD Images (Pdf)

Enlaces Patrocinados
Comentarios