Cada día miles de millones de fotografías se suben a los servicios donde se comparten fotografías o en las redes sociales y ahora científicos de la Universidad de Cornell están intentando hallar maneras de analizar las tendencias visuales en las modas a través de métodos del aprendizaje profundo, usando redes neuronales.

Kavita Bala, profesor de ciencias de la computación; Noah Snavely, profesor asociado de ciencias de la computación en Cornell Tech y Kevin Matzen, han revelado los resultados de su trabajo en un nuevo artículo llamado “StreetStyle: Exploring world-wide clothing styles from millions of photos” (Estilo en la calle: explorando los estilos en la moda de vestir a partir de millones de fotos).

Los investigadores escriben: “Presentamos un marco de trabajo para descubrir visualmente, analizar las tendencias en la manera de vestir y la moda a través de millones de imágenes de personas alrededor del mundo en términos de muchos años de fotografías”.

¿Por qué los relojes inteligentes pasarán de moda?

Bala dijo que el grupo uso aprendizaje profundo para detectar varios atributos -el color, la longitud de las blusas, cuando una persona usaba lentes o sombrero, etcétera, en millones de imágenes. “Usando estos atributos detectados, podemos entonces derivar una visión más profunda del tema”, dice Bala. “Por ejemplo, ¿En dónde en el mundo es más común usar sombreros? ¿En qué época del año? ¿Qué colores son más populares en el verano contra el invierno? Nuestro enfoque produce un análisis, el primero en su tipo, de las modas globales y por ciudad, así como la selección en la manera de vestir y las tendencias espacio-temporales”, dice el investigador.

Los investigadores se fijaron especialmente en las tendencias de la moda en términos de tiempo y lugar. Para eliminar todas las fotos no relacionadas, el grupo primero usó tecnología para reconocer rostros y así excluir fotos en donde no había personas en las mismas. entonces, el grupo filtró los resultados para incluir las fotos que al menos tenían personas en donde se observaba la mitad de su cuerpo.

Eso dio como resultado unas 15 millones de fotografías. Haciendo una selección más estricta de las mismas, el equipo desarrolló un programa de reconocimiento de piezas de vestir. El programa también aprendió un número de descriptores como longitud de la manga, color y patrón.

Una vez que las imágenes fueron etiquetadas, el grupo puso los datos hallados en otro programa, esta vez para reconocer patrones pero no en la ropa, sino en los datos. Así se hallaron relaciones entre pares de piezas de vestir que se usaban, hallando además las tendencias populares en diferentes áreas y cómo estas tendencias cambiaban en un periodo de unos tres años, aproximadamente.

La ropa podría autorepararse en el futuro

Así, los investigadores pudieron echar un vistazo en los factores culturales, sociales y económicos que modelan a nuestras sociedades y dando ya indicios de cómo funcionan en toda la civilización. “La combinación de big data, aprendizaje de máquinas, visión por computadora y algoritmos de análisis automatizado hacen que tengamos una herramienta muy poderosa de análisis para hacer descubrimientos visuales en la moda y en otras áreas”, concluyen los investigadores.

Referencias: Phys.org 

Enlaces Patrocinados
Comentarios