Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Deepfakes: Manual para detectar videos de personajes que son falsos

La manipulación de imágenes ya es un tema en el cual se ha avanzado notablemente en el proceso digital de fotografías y videos. Un nuevo estudio puede mostrar si hay superposición de rostros.

Poner un rostro de alguien en la cara de otra persona, en una manipulación digital que en ocasiones es simplemente divertida. Pero este tema puede ser sujeto a las ideas más perversas, por ejemplo, para crear un video en donde una persona importante, un político, por ejemplo, diga cosas que nunca dijo y así crear una versión de “fake news” que raya ya en lo preocupante.

Teorías conspiratorias, “fake news”, ciencia y acceso a la información

Otro tema a considerar es el de las venganzas personales, en donde alguien coloca el rostro de su víctima en un sitio pornográfico y lo sube como si esta persona fuese la protagonista de dicho video, cuestión que le han llamado “deepfakes”.

Hay investigadores interesados en explorar estas ideas para descubrir si hay intercambio de rostros, se haya hecho esto con dolo o no. Y han hallado un algoritmo para detectar cuando hay un intercambio de rostros, pudiendo entonces mostrar que el video es falso de manera inmediata.

“Es claro que se requería un algoritmo de esta naturaleza de manera casi desesperada para dar la batalla a las nuevas formas de sobreponer imágenes, sobre todo cuando se hace con fines poco éticos”, dice Analytics Vidhya. “Al poner a la luz pública el artículo de investigación, los académicos buscan que otros tomen la estafeta y mejoren el trabajo hecho, así como además, hacerlo más preciso”, añadió.

Andreas Rossler fue el líder de los equipos de la Universidad Técnica de Munich, la Universidad Federico II de Nápoles y la Universidad de Erlangen-Nuremberg. Como en otros casos, el algoritmo se basa en una red neuronal llamado XceptionNet, que usa un conjunto grande de cambio de imágenes. “Obtuvimos una fuerte base de resultados para detectar una manipulación facial a través de arquitecturas de aprendizaje profundo modernas”, comentó Rossler.

Es claro que en las redes neuronales las bases de datos con las que se trabaja han sido mejoradas sobre las que existían antes. “Hemos introducido un novedoso conjunto de datos que excede todos los que hasta ahora están disponibles públicamente y por órdenes de magnitud”, comenta Rossler sobre los deepfakes.

En el artículo, los autores dicen que introdujeron un conjunto de manipulación de datos, FaceForensics, de “cerca de medio millones de imágenes editadas (tomadas de 1000 videos)”. El artículo se titula:FaceForensics: A Large-scale Video Dataset for Forgery Detection in Human Faces, el cual aparece en arXiv. Los autores son Andreas Rössler, Davide Cozzolino, Luisa Verdoliva, Christian Riess, Justus Thies y Matthias Nießner.

Los investigadores hacen notar la dificultad, tanto para personas como para máquinas, para distinguir entre video original y manipulado, “especialmente cuando los videos se comprimen o tienen baja resolución, como pasa con frecuencia en las redes sociales”. También llaman la atención al hecho de que “la investigación en la detección de manipulación de rostros no ha podido avanzar muy de prisa pues muchos conjuntos de datos son inadecuados”.

Cabe destacar que el éxito tiene sus bemoles. Hay un artículo que usa las mismas técnicas de aprendizaje profundo para detectar intercambio de rostros en video, pero que pudiese servir para mejorar la calidad de este “swapeo” o intercambio de caras de forma que fuese más difícil de detectar.

“XceptionNet claramente es mejor que las técnicas rivales para detectar este tipo de videos falsos, pero también puede mejorar la calidad de los intercambios de rostros falsos. El equipo de Rossler puede entonces hacer videos más convincentes, aunque eso sí, no engañan a XceptionNet de todas maneras. Sin embargo, a la larga podrían hacer que fuese más difícil de detectar videos falsos con otros métodos”, indican los investigadores.

Este problema no es privativo solamente de este tipo de algoritmos, sino de un sinfín de trucos que se usan para engañar a la gente. Es evidente que es una especie de carrera loca, entre los que quieren engañar, generar noticias falsas, por ejemplo, y aquellos que buscan desenmascarlos.

Comentarios