Investigadores de la Universidad de Washington demostraron recientemente cómo imágenes en 3D de Tom Hanks, Daniel Craig y de otras celebridades, pueden ser creadas de forma tal que tengan la voz y los gestos de alguien que está diciendo por ejemplo, un discurso. De esta manera la voz de alguien ya puede representarse en un modelo visual que permite ver a cualquier celebridad diciendo cosas que jamás dijo. A mí en lo personal me parece asombroso.

La tecnología reside sus avances en la reconstrucción 3D, seguido del seguimiento, alineación, modelado multi-textura y algo de manejo de títeres, la cual fue desarrollada por un grupo de programadores e ingenieros, lidereados por el profesor asistente Ira Kemelmacher-Shlizerman. El equipo universitario hizo avances notables en su trabajo que permiten transferir las expresiones de una persona particular, que está hablando, a otra cara o incluso a otro objeto. Por ejemplo, se puede ver al presidente George Bush el cual se copia en otros rostros de otras celebridades y personajes famosos. El siguiente video es muy ilustrativo del trabajo realizado:

Los algoritmos de aprendizaje de computadoras, desarrollados por los investigadores de la universidad permitieron trabajar con un mínimo de 200 imágenes de Internet en varios escenarios y poses, un proceso conocido como «aprendizaje salvaje». Obviamente con esta tecnología podríamos ver a Donald Trumph decir cosas que dijo Obama o viceversa. Los investigadores, sin embargo, tienen metas menos maliciosas. Esperan que eventualmente los miembros de una familia puedan interactuar con un modelo a una distancia relativa creando así una persona digital completa en 3D a partir de álbumes de fotos familiares, videos, alguna colección histórica de imágenes, o cualquier otro contenido con el que se pueda trabajar. En términos generales, en la medida que las tecnologías de realidad aumentada empiecen a ser más poderosas, las actuales como Skype o Facetime empezarán a desaparecer.

«Uno podría pensar que algún día uno podría ponerse un par de lentes de realidad virtual aumentada y así ver la imagen de su propia madre en 3D sentada en la sala de la casa», dice Kemelmacher-Shlizerman. «Esta tecnología aún no existe pero el trabajo en pantallas y maneras de desplegar información se mueven muy rápido. La pregunta sería entonces, ¿cómo recrear a tu madre en tres dimensiones?».

Los investigadores presentarán su proyecto en la Conferencia Internacional de Visión por Computadora, que se llevará a abo el próximo 16 de diciembre.

Referencias:

University of Washington 
GizMag