Twitch lanzó una nueva herramienta de aprendizaje automático que le permite a la plataforma detectar usuarios sospechosos de utilizar técnicas para evadir los bloqueos, así como tomar medidas para evitar que estos interactúen e interrumpan las retransmisiones en directo.

La función, denominada, Suspicious User Detection, fue desarrollada por Twitch como respuesta directa a los comentarios de la comunidad que pedían opciones de moderación más sólidas para manejar a los usuarios que aparecían con nuevas cuentas después de haber sido prohibidas. 

La app de Twitch por fin llegó a Nintendo Switch

¿Cómo funciona la nueva herramienta de Twitch?

Después de que una cuenta se marca cómo evasor de prohibición “posible” o “probable”, los moderadores de un canal pueden optar por tomar medidas en su contra manualmente.

“Cuando bloqueas a alguien de tu canal, debería ser excluido de tu comunidad para siempre. Desafortunadamente, estos usuarios a menudo optan por crear nuevas cuentas, volver al chat y continuar con su comportamiento abusivo”

Twitch.

Mientras que, para los que se encuentren en la lista de probables, Twitch se encargará de bloquear todos los mensajes que se envíen al chat. Sin embargo, los creadores de contenido así como los moderadores podrán revisar estos comentarios y elegir si mantener la restricción, monitorizar al usuario o prohibir que intervenga en el canal.

Por el contrario, aquellos que se enmarquen en el apartado de posibles, podrán participar en los chats. En este caso, se les ofrece a los creadores y moderadores la posibilidad de monitorizar a estos usuarios y limitar su intervención en caso de ser necesario.

Falsos probables o posibles.

La plataforma va a activar de forma automática la localización de usuarios sospechosos en todos los canales, aunque los usuarios pueden ajustar esta herramienta o desactivarla desde la página de configuración de los canales.

Twitch señaló que, al igual que con cualquier herramienta de moderación automatizada, los falsos probables o posibles pueden detonarse, por lo que se espera lograr un equilibrio entre la detección proactiva impulsada por sistemas de aprendizaje automático así como la intervención humana.

El sistema mejorará con el tiempo después de la capacitación sobre las aportaciones de los moderadores humanos.