Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

“DeOldify”: una nueva técnica automática para colorizar imágenes

Hace algunos años a alguien se le ocurrió que usando la computadora podría pasar a color las películas originales en blanco y negro. Sin embargo el asunto fue fallido. Ahora, usando redes neuronales, quizás encontremos esto como la solución.

Hay películas emblemáticas que se filmaron en blanco y negro (en realidad, deberíamos decir, serían tonos de grises), las cuales -en algún momento- se pensó que bien podrían colorizarse y así tener una versión más real, con imágenes. Y aunque la idea parecía buena, el problema es que las imágenes en tonos de gris, sean fotografías o películas, perdieron la información de color y por ende, al querer colorizar, hay que aproximar el color. Supongamos que queremos colorizar una imagen en donde un actor sale con un traje oscuro.

Cómo saber si alguien se ha metido a tu cuenta de Gmail

Sin embargo, no sabemos a priori si el traje es gris oscuro, azul oscuro o negro. No podemos saberlo. Claro, podríamos ir al algún museo de Hollywood en donde quizás conserven el vestuario original de alguna película y entonces podríamos pintar la imagen de manera mucho más correcta, más exacta con el color que en realidad se tenía. Pero en otras ocasiones, no podemos saber qué color exacto tenían las cosas, los objetos, la piel de los protagonistas, etcétera. El resultado casi siempre terminaba pintando las películas con colores pastel.

No obstante esta dificultad, que parece infranqueable, se ha propuesto solucionarse usando redes neuronales. Esta es una manera de “quitarle lo antiguo a las imágenes” o “Deoldify”, como le han dado en llamar a esta técnica. Lo más interesante de todo esto es que este esfuerzo en particular no sólo parece resolver el problema, sino que es un esfuerzo amateur.

Desde luego que no se necesita ser un académico o tener el apoyo de alguna compañía de IA para entrar en el tema. Lo que se necesita es saber qué y cómo hacerlo, amén de trabajar mucho, como hizo Jason Antic, quien se describe a sí mismo como un tipo dedicado al software, actualmente trabajando en redes neuronales GAN para hacer colorización y restauración de fotos.

Antic ha hecho el trabajo que en general lo hace un equipo de programadores. Su única ayuda es una tarjeta GPU 1080TI y aún así, sus modelos tardan entre dos y tres día para ser entrenados. La descripción del diseño de su red neuronal para su proyecto Deoldify no parece estar muy preciso, pero es claro que usa una GAN (Generative Adversarial Network), la cual considera un número importante de criterios para trabajar. Como sea, lo fundamental de esto es que su esfuerzo parece funcionar muy bien.

Nótese que la red neuronal no reconoce la mano y quizás cree que es una bolsa

Antes de ver algunas fotos restauradas y colorizadas, debe entenderse que no hay ninguna intervención humana en el proceso. Todo lo hace la red neuronal y que, hay que considerar, en ocasiones no hay una respuesta correcta a la colorización de fotos antiguas en donde no se sabe realmente qué colores tenían las cosas que aparecían en la imagen. Se supone, sin embargo, que esta es precisamente “la chamba” de la red neuronal que aprende y que sin duda, es un proceso difícil.

Hay muchos ejemplos en GitHub y hay que admitir que estos son los mejores resultados. Los resultados parecen de alguna manera “sesgados” por el propio autor pero, ¿no es este comportamiento típico de los investigadores de la IA para presentar sus artículos mejores de lo que son?

El objeto de este trabajo es crear fotos que sean mejores, fotos que en el pasado fueron buenas y que ahora se busca renovar. Tal vez lo importante es que una red neuronal pueda hacer este trabajo y presentar resultados interesantes donde incluso los errores son muy instructivos.

Lo mejor es que el código puede descargarse, el cual está bajo licencia del MIT. Hay que decir que si usted usa este software, tiene que entrenar a la red usted mismo. Los coeficientes finales del modelo probablemente se publiquen pronto, pero por el momento no hay más que jugar, entrenar al modelo y ver qué parámetros son los mejores.

Comentarios