Con la adopción de los modelos de comentarios de foros y redes sociales en prácticamente todos los sitios web, llegó una apertura sin límites para que cualquier persona exprese su opinión en torno al tema que sea.

El problema es que esa completa libertad derivó en ataques, insultos, humillaciones, muestras de odio, misoginia, homofobia, racismo y elitismo, spam, hackeos, acosos, distribución de fotos sin consentimiento y hasta amenazas de muerte en las secciones de comentarios.

Una medida a la que pueden recurrir sitios web y fanpages es el bloqueo de sus respectivas secciones de comentarios, pero ello deriva en nula generación de comunidad, es decir, afectaría directamente a uno de los pilares de las actuales estrategias web.

¿Cómo motivar entonces la generación de comentarios positivos y reducir o eliminar los tóxicos?

En plática con Google News Iniciative, Pablo Delgado de El País dijo que pusieron a prueba Perspective API, una herramienta gratuita desarrollada por Jigsaw que usa un modelo de robot que aprende a partir de los comentarios generados por humanos y que sean catalogados como tóxicos por los mismos moderadores.

Al inicio Perspective API solo funcionaba en inglés, pero tras la alianza con Jigsaw el robot empezó a entender cómo se detectaba la toxicidad en español.

Ahora, cuando alguien intenta escribir un comentario tóxico en El País, aparece un mensaje en tiempo real que invita al usuario a hacerle cambios o a reescribirlo. Con esta medida, el periódico ha visto una disminución de comentarios tóxicos en un 7%, mientras que la actividad general de comentarios aumentó en un 19%.

Esto quiere decir que, con la baja de toxicidad en las secciones de comentarios, aumentó el ímpetu de los usuarios de opinar de manera propositiva, lo que ha aumentado el nivel de conversación en torno a determinado tema.

Ahora la duda es si la implementación de estos protocolos impacta directamente en la libertad de expresión.