Un grupo de ingenieros de Facebook identificó una «falla de clasificación masiva» que expuso las vistas de News Feed a «riesgos de integridad» durante los últimos seis meses.

Pero, ¿qué fue esta falla y cuáles fueron sus consecuencias en los usuarios al ser expuestos a contenido dañino?, esto reveló un informe obtenido por el medio inglés The Verge.

Facebook supuestamente financió una campaña anti TikTok: Lo que sabemos

Contenido dañino para todos: fallas en Facebook

De igual forma a muchas otras empresas del mundo de las redes sociales, Facebook cuenta con mecanismos para apartar el contenido dañino de los usuarios y, según sea el caso, bloquearlo.

Sin embargo, ingenieros de la plataforma notaron el problema por primera vez en octubre pasado, cuando una repentina oleada de información errónea y contenido dañino comenzó a fluir a través de los feeds de los usuarios.

Más bien, en lugar de suprimir las publicaciones dudosas, Facebook distribuyó las publicaciones, lo que aumentó las vistas hasta en un 30 por ciento a nivel mundial.

Facebook
(Foto: Nghia Nguyen vía Unsplash)

A pesar de que tenían el problema identificado, los especialistas no lograron encontrar la causa y fue hasta el pasado 11 de marzo que el problema quedó solucionado.

El motivo de la falla se debe a que los sistemas de Facebook no degradaron adecuadamente la desnudez, la violencia e incluso los medios estatales rusos que habían dicho que bloquearían.

Como consecuencia, el problema se designó internamente como SEV de nivel uno, o vulnerabilidad de ingeniería grave, una etiqueta reservada para las peores crisis técnicas de Facebook.

Facebook está oficialmente y totalmente bloqueado en Rusia

¿Qué dijo la red social?

Con todo esto, fue el portavoz de Meta, Joe Osborne, quien confirmó el incidente en un comunicado a The Verge:

“(La compañía) detectó inconsistencias en la reducción de rango (o downranking) en cinco ocasiones distintas, lo que se correlacionó con pequeños aumentos temporales en las métricas internas.Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias»

Joe Osborne, portavoz de Meta

De hecho el downranking o reducción de rango, no solo suprime lo que Facebook llama contenido «límite» que está cerca de violar sus reglas, sino también el contenido dañino que sus sistemas de IA catalogan como tal, pero que necesita una revisión humana adicional.

Finalmente esperamos que la compañía de Mark Zuckerberg tenga estos problemas de contenido dañino en la mira para clasificar y mostrar el contenido como debería ser.