Por ejemplo, el iPhone y su pantalla multitáctil nos ha mostrado que debemos re-pensar en cómo interactuamos con la computadora. A un nivel mucho mayor tenemos la mesa Microsoft Surface, que nos da un control basado en tocar en una pantalla para mover, cambiar de tamaño, compartir objetos, dentro del medio ambiente gráfico que se le presenta al usuario. Windows 7, probablemente, tendrá la posibilidad de interactuar de manera parecida a lo que hace Microsoft Surface y si es así, seguramente será un paso adelante de la competencia.
¿Será más fácil usar una computadora a través de una interfaz multitáctil? Probablemente será cuestión de acostumbrarse, aunque es claro que ya Tom Cruise, en Minority Report, nos muestra el futuro de la sinterfaces gráficas, manipulando imágenes con meros gestos. Esto es quizás el futuro de la interfaz hombre-máquina. Para muchos futuristas, el teclado y el ratón tienen los días contados.
Aunque la tecnología para leer e interpretar los gestos humanos ya existe, el reto consiste en ver la manera de codificar una manera universal de entender tales acciones. “La gran pregunta es si podemos construir una biblioteca de gestos que nos indiquen lo que significa cada uno de estos“, comentó el desarrollador de la web Dan Thompson. De alguna manera hay que definir un diccionario de gestos. El iPhone, para muchos, es el primer dispositivo que inicia un estándar en gestos multitáctiles como pudiesen ser: pellizcar, tocar, repasar.
Chris Bernard, un experimentado usuario de Microsoft y promotor de las tecnologías de la empresa de Redmond indicó que “en el mundo real estamos trabajando en cómo construir interfaces como la que aparecen en la película de Tom Cruise”. De hecho, indicó Bernard, “desde que Xerox lanzó su interfaz gráfica hace unos 20 años no ha habido mucha innovación al respecto“.
Muchos diseñadores de interfaces pienan que el control basado en gestos será la siguiente revolución de las interfaces con la computadora. Bernard dice: “es difícil predecir el futuro pero no tanto decir que la cuestión táctil estará en el futuro de la computación móvil. Por ahora hablamos de pantallas multitáctiles, pero en el futuro probablemente se basen en los gestos o en los movimientos con los dispositivos móviles“. Por ejemplo, “agitar” el dispositivo móvil será una manera de indicarle que haga algo en específico. La segunda generación ded Microsoft Surface será capaz de leer los gestos de las personas al igual que la manera física al usar los dedos con la interfaz, todo gracias a las cámaras infrarrojas que contiene esta tecnología.
¿Qué tanto tendremos que esperar para ver nuevas maneras de interactuar con las computadoras? ¿Qué opinan al respecto?