Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Esta es la razón por la cual no quisieras ser moderador de Facebook

Tras la reciente demanda que una moderador de Facebook emprendió contra de la plataforma, se ha dado a conocer toda la oscuridad que hay detrás del trabajo.

El trabajar en las redes sociales, no siempre resulta ser tan divertido como se cree, y para probarlo se encuentra la reciente demanda que una ex trabajadora de Facebook realizó en contra de la plataforma, porque aseguraba que no se le estaba dando la atención psicológica necesaria.

Se preguntarán por qué habría de recibir este tipo de ayuda, y la respuesta es tan sencilla como la que dio la denunciante: los moderadores de contenidos de Facebook, son bombardeados con miles de vídeos e imágenes de ofensivas y perturbadoras, que acaban con la paz mental en muy poco tiempo.

Facebook podría lanzar su propio altavoz inteligente muy pronto

De acuerdo a ello y por el trauma o traumas que podrían desarrollar los moderadores, se considera que deberían existir cuidados adecuados por parte de la empresa, la cual según el litigante, no existen y no se toman en cuenta.

La abogada de la antigua empleada, ha dado a conocer que Facebook esta ignorando uno de los principales objetivos de las compañías: ofrecer un lugar de trabajo seguro en todo sentido, para que su fuerza de trabajo se encuentre en óptimas condiciones para realizar sus labores diarias.

Resultado de imagen para moderador de contenido en facebook

Sin embargo, la compañía de Mark Zuckerberg, explicó a través de Roberta Thomson, director de comunicación corporativa de la red social, que nada de esto es cierto, ya que ellos se preocupan por todos y cada uno de los aspectos:

“Nos tomamos muy en serio el apoyo que ofrecemos a nuestros moderadores de contenido. Nos aseguramos que a cualquier persona que revisa el contenido de Facebook se le ofrezca apoyo psicológico”.

Por el momento, las declaraciones de Thomson se unen a la noticia sobre la Inteligencia Artificial en la que está trabajando Facebook, para ayudar precisamente a los revisores a identificar el contenido inapropiado, y aunque es una buena idea, las personas creen que una tare de este tipo no puede dejarse en manos de un robot.

Algunas de las situaciones a las que se exponen los moderadores de contenido, todos los días son las siguientes:

  • Pornografía infantil
  • Abuso sexual infantil
  • Violaciones
  • Tortura
  • Zoofilia
  • Decapitaciones
  • Suicidios
  • Asesinatos
Comentarios