Facebook obliga a los moderadores a documentar sus horas de trabajo al segundo, incluso yendo al baño

"Las personas tienen que marcar la hora de llegada y salida, incluso cuando van al baño, y explicar por qué se quedaron allí es humillante e insultante"




Cuando Valera Zaitsev comenzó a trabajar en Dublín hace un par de años como moderador de Facebook, sabía que tendría que mirar el contenido más duro y duro de Internet. Lo que no sabía era que Facebook contaría la duración de sus viajes al baño en segundos.

"Las personas deben tener en cuenta la hora de llegada y salida, incluso cuando van al baño, y explicar por qué se quedaron allí es humillante e insultante", dijo Zaitsev a VICE News.

Facebook, que subcontrató la mayoría de sus tareas de moderación de contenido a compañías externas, con más de 15,000, no siempre mantuvo a sus empleados con una correa tan corta. Cuando Zaitsev, que tenía 33 años, se unió al ejército de moderadores de Facebook en julio de 2016, se enfrentó a un flujo de trabajo organizado profesionalmente, donde recibió capacitación detallada y fue muy amable con él.

Pero pronto todo cambió. El número de moderadores en la oficina de Dublín comenzó a aumentar bruscamente, de 120 a 800 en solo dos años, las condiciones comenzaron a deteriorarse y la capacitación de los moderadores casi desapareció.

Para 2018, la cantidad de moderadores de contenido en todo el mundo había crecido a decenas de miles, y Facebook comenzó a probar un sistema de gestión del tiempo diseñado para rastrear a los empleados cada minuto del día, incluyendo descansos para el almuerzo, capacitación, "descansos de bienestar" para visitar a un psicólogo o entrenar para yoga, e incluso el tiempo que pasaron en la olla, según Zaitsev y otro empleado que trabaja hoy en la empresa que deseaba permanecer en el anonimato.

En los últimos años, Facebook ha estado luchando con las críticas sobre cómo las redes sociales lidian con contenido horrible. La compañía ha gastado al menos medio billón de dólares en la contratación de moderadores humanos, además de algoritmos que monitorean la limpieza de la página.

Debido al control cada vez mayor de los gobiernos de diferentes países, el trabajo de estos moderadores es extremadamente importante. Son la primera línea de defensa de la compañía contra materiales horribles e ilegales, pero se quejan de los bajos salarios y la falta de apoyo. Como resultado, surgen problemas de salud psicológica uno tras otro, y el mes pasado se presentó la primera de muchas demandas debido al hecho de que la empresa no brinda seguridad en el lugar de trabajo.

Los moderadores de Facebook dicen cada vez más que se sigue cada paso que siguen. Al decidir sobre el contenido, los moderadores deben seguir las instrucciones de un documento en constante cambio, al que llaman la "biblia". Y a cada moderador se le asigna una "evaluación de calidad".

"Puede cometer de 4 a 5 errores al mes: es un 2% de errores, un 98% de calidad", dijo Chris Gray, un ex moderador de Facebook que trabajó en la empresa durante 11 meses. "Si viniste a trabajar hoy y martes o miércoles, y cometiste cinco errores, entonces todo tu mes se va al infierno, y solo puedes pensar en cómo recuperar esta marca".

Gray sufre un trastorno de estrés postraumático después de trabajar como moderador, y el mes pasado demandó en Irlanda contra la red social y contra CPL, uno de los contratistas de Facebook, que emplea a miles de revisores de contenido en los Estados Unidos, Europa y Asia. La compañía está acusada de causar "trauma psicológico" en la demanda debido a las malas condiciones de trabajo y la necesidad de ver material desagradable.

Se espera que docenas, si no cientos, de moderadores presenten tales demandas. Una fuente del bufete de abogados Coleman & Partners que trabaja para Gray nos dijo que los nuevos documentos se enviarán a la Corte Suprema este mes.

CPL no respondió a nuestra solicitud de declaraciones hechas por moderadores actuales y anteriores, y Facebook se negó a comentar sobre las declaraciones que registra cada minuto de tiempo de los empleados.

El portavoz de Facebook, Drew Pusateri, nos dijo que "el bienestar de las personas que revisan el contenido de Facebook ha sido y sigue siendo nuestra principal prioridad".

Pero los moderadores dicen que esto no es así. Facebook dio acceso a asesoramiento psicológico, muchos moderadores piensan que simplemente no pueden usarlo debido a la vigilancia constante, el cambio constante de las políticas y la aplicación despiadada de los estándares de calidad.

"Hay miles de moderadores que trabajan en la Unión Europea, y todos tienen condiciones de trabajo inseguras para su salud psicológica y, en nuestra opinión, son simplemente ilegales", dijo Corey Crider, director del grupo de cabildeo británico Foxglove. "Las leyes europeas protegen fuertemente a los trabajadores, y creemos que Facebook y otras redes sociales deberían hacer mucho más para crear empleos seguros para los moderadores".

Siguiendo la biblia


Los moderadores de Facebook ven y eliminan contenido marcado por miles de millones de usuarios de Facebook de todo el mundo, así como los algoritmos de inteligencia artificial de la compañía. La mayor parte del contenido es bastante común, pero algunos ejemplos son muy desagradables: abuso sexual, bestialidad, violencia.

Todos los días, cuando el moderador es marcado en la mañana en el trabajo, recibe el llamado Un "plan de juego" es una rutina que indica cuántos ejemplos de contenido debe procesar el moderador y desde qué colas: texto ofensivo, acoso, amenazas de autolesión.

Gray dijo que los moderadores de CPL también imponen un tiempo promedio para procesar la solicitud, o la cantidad de tiempo que se puede dedicar a cada uno de los ejemplos. El tiempo varía según el tipo de contenido que se esté estudiando, pero Gray dice que generalmente no lleva más de un minuto.

Y si algunos ejemplos del contenido violan claramente las reglas y no requieren mucho pensamiento para ser procesados, otros no son tan obvios, por lo que debe consultar con los "estándares ejecutivos" de Facebook o, como algunos moderadores los llaman, con la "biblia".

Un documento de 10,000 palabras contiene 24 categorías diferentes, divididas en tres grupos: comportamiento dañino, contenido sensible y violar la ley; esto se desprende de una copia del documento publicado en marzo de 2018 y revisado por VICE News.


De acuerdo con las reglas, el moderador puede decidir ignorar el contenido o eliminarlo. Si decide eliminarlo, debe describir este contenido con gran detalle, etiquetarlo con etiquetas de varias categorías y subcategorías. Esta información luego se alimenta a los algoritmos de Facebook. Esto significa que los moderadores mismos entrenan el programa, que un día puede reemplazarlos.

Aunque la "Biblia" es una guía útil, se actualiza cada dos semanas y describe el uso de generalizaciones confusas de una amplia gama de contenido publicado en Facebook.

"Debe tener reglas generales que cualquiera pueda aplicar fácilmente en diferentes situaciones", dijo Gray.

Y en muchas situaciones, los moderadores simplemente no saben qué hacer.

"Hubo días en que estuvimos con diez hombres en la pantalla, alguien tenía una política abierta en otra pantalla, miramos la pantalla y discutimos sobre cómo se aplica la política a este video", dijo Gray.

En la mayoría de los casos, los moderadores no tienen la oportunidad de plantear el problema a un empleado mayor. En cualquier caso, tienen que tomar una decisión, y si resulta que está mal, afectará la evaluación de la calidad de su trabajo.

Estándares de calidad poco realistas


Un equipo de auditores que revisa ejemplos seleccionados de decisiones de moderador cada mes determina si el moderador tenía razón o no. Sin embargo, estos auditores son los mismos moderadores cuya evaluación de calidad fue superior al promedio.

El moderador brinda una oportunidad para apelar las decisiones de los auditores de los mismos auditores, y esto debe hacerse dentro de las 48 horas, y todos los moderadores entrevistados por los editores de VICE News dijeron que tenían que apelar para mantener el nivel de calidad en 98 %

Los auditores otorgan calificaciones negativas por la decisión incorrecta, debido a que el contenido que se eliminará permaneció en Facebook, o viceversa. El proceso también permite a los auditores multar a los moderadores si toman la decisión correcta por el motivo equivocado.

Pero los auditores están lejos de ser infalibles y, a menudo, no pueden explicar sus decisiones. Al determinar si era necesario dejar la publicación de un usuario en línea donde se hizo la propuesta "probablemente debería suicidarse", uno de los auditores no pudo dar una respuesta definitiva; esto se deduce de las capturas de pantalla de la discusión con el moderador a disposición de VICE News.

"Los auditores no saben nada sobre su mercado, ya que provienen de diferentes países y hablan diferentes idiomas", dijo Zaitsev.

Sin embargo, Facebook no solo no puede contratar personas con experiencia adecuada para la moderación. La compañía también permite a los moderadores compartir información personal con terceros.

Zaitsev estaba entre los más de 1000 moderadores de Facebook cuyas identidades fueron reveladas accidentalmente a aquellas personas cuyas cuentas bloquearon. Facebook se disculpó con Zaitsev y prometió proteger mejor a sus empleados. Esta es una de las muchas promesas hechas recientemente por la red social a la luz de muchos escándalos.

Políticas de Facebook


A pesar de que Facebook insiste en mejorar las condiciones de trabajo, la nueva política de gestión del tiempo y los requisitos constantes para lograr una determinada calidad de trabajo erosionan aún más el tiempo que los empleados podrían usar para aliviar el estrés después de trabajar con contenido traumático.

Un nuevo programa de gestión del tiempo que obliga a los moderadores a registrar cada minuto de su tiempo de trabajo ha agregado problemas a un ambiente de trabajo ya estresante. Facebook comenzó a usar este programa este año. Funciona de manera tan eficiente que si el moderador deja su computadora, el programa lo registra dejando el lugar de trabajo. Y luego tiene que explicar estas brechas a los gerentes.

Este programa también complica los esfuerzos de los moderadores para aprovechar los programas para mantener una buena salud. En muchos casos, en lugar de visitar a un psicólogo o practicar yoga, los moderadores pasan su tiempo libre discutiendo con los auditores sobre la exactitud de la decisión tomada o los cambios en la "biblia".

Uno de los moderadores de Facebook, que trabaja allí hasta el día de hoy, dice que las personas que trabajan en "mercados ocupados", por ejemplo, en la región de habla inglesa, "no son alentadas" a utilizar programas para mejorar su bienestar, y que debido a esto les resulta difícil trabajar en conjunto. día, sin sentirse psicológicamente exprimido.

Y en diferentes mercados, la carga puede ser muy diferente. Los moderadores en países como Filipinas o Tailandia dicen que ven 1,000 copias del contenido por día, mientras que un moderador europeo puede ver menos de 150 copias en secciones más complejas, como la explotación infantil.

Es posible que los gerentes no siempre se den cuenta de las causas de los problemas del moderador: las consecuencias del contenido que han estado viendo, experimentando estrés o una combinación de ambos factores.

Un moderador que trabajó en CPL durante 14 meses, de 2017 a 2018, le dijo a VICE News que decidió dejar la empresa cuando el gerente lo multó por un ataque de pánico en el lugar de trabajo. En ese momento, el moderador descubrió que su anciana madre, que vivía en otro país, desapareció después de un derrame cerebral.

“En un día en que experimenté el estrés más grave de mi vida, cuando pensé que podía perder a mi madre, mi líder de equipo, un hombre de 23 años sin experiencia laboral, decidió presionarme aún más, prometiendo que podría perder mi trabajo. ", Dijo el moderador, que deseaba permanecer en el anonimato.

Actitud "en cuanto a los delincuentes"


Cuando el estrés finalmente obliga a los moderadores a abandonar la empresa, muchos de ellos temen criticar a Facebook o CPL debido al acuerdo de confidencialidad que firmaron antes de comenzar a trabajar. Zaitsev dijo que cuando fue despedido en la CPL, se vio obligado a firmar un segundo acuerdo de este tipo.

"Me negué a firmar y me vi obligado a presionar", dijo. "Después de muchos fracasos, me expulsaron del edificio como delincuente, aunque mi turno aún no había terminado y no tuve tiempo de despedirme de mis colegas".

La compañía también advierte a los empleados que no hablen con la prensa. VICE News recibió una copia del correo electrónico enviado por CPL a sus empleados en Dublín en 2018, que advirtió sobre una historia secretamente próxima de la compañía en el Canal 4. La carta describía cómo los empleados deberían responder preguntas. "Es mejor que responda una pregunta como" La seguridad de las personas que usan Facebook es una de nuestras principales prioridades "", dice una parte del documento.

Facebook también instó a los moderadores a eliminar los enlaces de Facebook de sus páginas de LinkedIn para que los periodistas no puedan contactarlos y preguntar sobre casos controvertidos, dice Zaitsev.

Facebook dijo a VICE News que se oponían a los enlaces a la compañía en línea "por razones de seguridad", y citó los disparos en la sede de YouTube en San Bruno, California, en abril de 2018 como ejemplo.

A pesar de la paranoia de Facebook, Zaitsev hoy es parte de un grupo de docenas de moderadores actuales y anteriores que se han contactado con Coleman Legal Partners para entablar demandas contra esta empresa que no ha logrado garantizar un entorno de trabajo seguro. A diferencia de una reciente demanda colectiva en los Estados Unidos, se requiere que cada moderador en Irlanda presente una acción por separado.

“Cuanto más lejos de Facebook, más feliz es la persona. Cuanto menos feliz estés, más tiempo pasarás en Facebook ", dijo a VICE News uno de los ex moderadores, preparándose para presentar una demanda en Facebook. “Y nosotros, su madre, pasamos todo el día en Facebook. Puedes adivinar que esta es una práctica poco saludable ”.

Source: https://habr.com/ru/post/484502/


All Articles