O Facebook força os moderadores a documentar seu horário de trabalho para o segundo - até mesmo ir ao banheiro

“As pessoas precisam marcar a hora de chegada e partida, mesmo quando vão ao banheiro, e explicar por que ficaram lá é humilhante e ofensivo”




Quando Valera Zaitsev começou a trabalhar como moderador do Facebook em Dublin, há alguns anos, ele sabia que teria que olhar para o conteúdo mais duro e difícil da Internet. O que ele não sabia era que o Facebook contaria a duração de suas viagens ao banheiro em segundos.

"As pessoas precisam observar a hora de chegada e partida, mesmo quando vão ao banheiro, e explicar por que ficaram lá é humilhante e ofensivo", disse Zaitsev à VICE News.

O Facebook, que terceirizou a maior parte de suas tarefas de moderação de conteúdo para empresas terceirizadas, com mais de 15.000, nem sempre manteve seus funcionários em uma coleira tão curta. Quando Zaitsev, que tinha 33 anos, ingressou no exército de moderadores do Facebook em julho de 2016, ele enfrentou um fluxo de trabalho profissionalmente organizado, onde passou por treinamento detalhado e foi muito gentil com ele.

Mas logo tudo mudou. O número de moderadores no escritório de Dublin começou a aumentar acentuadamente - de 120 para 800 em apenas dois anos - as condições começaram a se deteriorar e o treinamento de moderadores quase desapareceu.

Em 2018, o número de moderadores de conteúdo em todo o mundo havia crescido para dezenas de milhares, e o Facebook começou a testar um sistema de gerenciamento de tempo projetado para rastrear funcionários a cada minuto do dia - incluindo intervalos para almoço, treinamento, "intervalos de bem-estar" para visitar um psicólogo ou treinar para ioga e até o tempo que gastaram na panela, de acordo com Zaitsev e outro funcionário que trabalha hoje na empresa que desejava permanecer anônimo.

Nos últimos anos, o Facebook tem enfrentado críticas de como a mídia social lida com conteúdo horrível. A empresa gastou pelo menos meio bilhão de dólares na contratação de moderadores humanos, além de algoritmos que monitoram a limpeza da página.

Devido ao crescente controle dos governos de diferentes países, o trabalho desses moderadores é extremamente importante. Eles são a primeira linha de defesa da empresa contra materiais horríveis e ilegais, mas reclamam de salários baixos e falta de apoio. Como resultado, problemas psicológicos de saúde surgem um após o outro e, no mês passado, o primeiro de provavelmente muitos processos judiciais foi instaurado devido ao fato de a empresa não fornecer segurança no local de trabalho.

Os moderadores do Facebook estão cada vez mais dizendo que cada passo que eles seguem é rastreado. Ao decidir sobre o conteúdo, os moderadores precisam seguir as instruções de um documento em constante mudança, que eles chamam de "bíblia". E cada moderador recebe uma "avaliação de qualidade".

"Você pode cometer 4-5 erros por mês - são 2%, 98% de qualidade", disse Chris Gray, ex-moderador do Facebook que trabalhou na empresa por 11 meses. "Se você veio trabalhar hoje e terça ou quarta-feira e cometeu cinco erros, todo o mês vai para o inferno, e você só pode pensar em como recuperar essa marca."

Gray sofre de transtorno de estresse pós-traumático depois de trabalhar como moderador, e no mês passado processou na Irlanda contra a rede social e contra a CPL, uma das empresas contratadas pelo Facebook, contratando milhares de revisores de conteúdo nos EUA, Europa e Ásia. A empresa é acusada de causar "trauma psicológico" no processo devido às más condições de trabalho e à necessidade de visualizar material desagradável.

Dezenas, senão centenas, de moderadores devem entrar com tais ações. Uma fonte do escritório de advocacia Coleman & Partners que trabalha para Gray nos disse que os novos documentos serão enviados à Suprema Corte este mês.

A CPL não respondeu ao nosso pedido de declarações feitas pelos atuais e antigos moderadores, e o Facebook se recusou a comentar as declarações que registra a cada minuto do tempo dos funcionários.

O porta-voz do Facebook, Drew Pusateri, nos disse que "o bem-estar das pessoas que revisam o conteúdo do Facebook tem sido e continua sendo nossa principal prioridade".

Mas os moderadores dizem que não é assim. O Facebook deu acesso ao aconselhamento psicológico, muitos moderadores pensam que simplesmente não podem usá-lo por causa da vigilância constante, políticas em constante mudança e aplicação implacável dos padrões de qualidade.

"Existem milhares de moderadores na União Europeia, e todos eles têm condições de trabalho inseguras para sua saúde psicológica e, em geral, são simplesmente ilegais", disse Corey Crider, diretor do grupo britânico de lobby Foxglove. "As leis européias protegem fortemente os trabalhadores, e acreditamos que o Facebook e outras redes sociais devem fazer muito mais para criar empregos seguros para os moderadores."

Seguindo a Bíblia


Os moderadores do Facebook visualizam e excluem o conteúdo marcado por bilhões de usuários do Facebook em todo o mundo, bem como os algoritmos de IA da empresa. A maior parte do conteúdo é bastante comum, mas alguns exemplos são muito desagradáveis ​​- abuso sexual, bestialidade, violência.

Todos os dias, quando o moderador é marcado de manhã no trabalho, ele recebe o chamado Um "plano de jogo" é uma rotina que indica quantos exemplos de conteúdo o moderador precisa processar e de quais filas - texto ofensivo, assédio, ameaças de danos pessoais.

Gray disse que os moderadores da CPL também impõem tempo médio para processar a solicitação ou a quantidade de tempo que pode ser gasta em cada um dos exemplos. O tempo varia dependendo do tipo de conteúdo que está sendo estudado, mas Gray diz que geralmente não leva mais que um minuto.

E se alguns exemplos de conteúdo violam claramente as regras e não exigem muita reflexão, outros acabam não sendo tão óbvios, e é por isso que você precisa consultar os "padrões executivos" do Facebook ou, como alguns moderadores chamam, a "Bíblia".

Um documento de 10.000 palavras contém 24 categorias diferentes, divididas em três grupos: comportamento prejudicial, conteúdo sensível e violação da lei - isso se segue de uma cópia do documento publicado em março de 2018 e revisada pela VICE News.


De acordo com as regras, o moderador pode decidir ignorar ou excluí-lo. Se ele decidir removê-lo, ele precisará descrever esse conteúdo em detalhes, marcar com tags de várias categorias e subcategorias. Essa informação é então inserida nos algoritmos do Facebook. Isso significa que os próprios moderadores treinam o programa, que um dia poderá substituí-los.

Embora a “Bíblia” seja um guia útil, ela é atualizada a cada duas semanas e descreve o uso de generalizações nebulosas de uma ampla gama de conteúdos publicados no Facebook.

"Você precisa ter regras gerais que qualquer pessoa possa aplicar facilmente em diferentes situações", disse Gray.

E em muitas situações, os moderadores simplesmente não sabem o que fazer.

"Havia dias em que estávamos com dez homens na tela, alguém tinha uma política aberta em outra tela, olhamos para a tela e discutimos sobre como a política é aplicada a este vídeo", disse Gray.

Na maioria dos casos, os moderadores não têm a oportunidade de apresentar o problema a um funcionário mais velho. De qualquer forma, eles precisam tomar uma decisão e, se estiver errada, afetará a avaliação da qualidade de seu trabalho.

Padrões de qualidade irrealistas


Uma equipe de auditores que revisa exemplos selecionados de decisões do moderador todos os meses determina se o moderador estava certo ou não. No entanto, esses auditores são os mesmos moderadores cuja avaliação da qualidade estava acima da média.

O moderador oferece uma chance de apelar para as decisões dos auditores dos mesmos auditores, e isso deve ser feito em 48 horas - e todos os moderadores entrevistados pelos editores da VICE News disseram que tinham que apelar para manter o nível de qualidade em 98 %

Os auditores dão classificações negativas pela decisão errada, devido à qual o conteúdo a ser excluído permaneceu no Facebook, ou vice-versa. O processo também permite que os auditores multem os moderadores se fizerem a escolha certa pelo motivo errado.

Mas os auditores estão longe de ser infalíveis e geralmente não conseguem explicar suas decisões. Determinando se era necessário deixar a postagem de um usuário on-line onde a proposta "provavelmente você deveria cometer suicídio" foi feita, um dos auditores não pôde dar uma resposta definitiva - isso segue das capturas de tela da discussão com o moderador à disposição do VICE News.

"Os auditores não sabem nada sobre o seu mercado, pois são de países diferentes e falam idiomas diferentes", disse Zaitsev.

No entanto, o Facebook não é apenas incapaz de contratar pessoas com experiência adequada para moderação. A empresa também permite que moderadores compartilhem informações pessoais com terceiros.

Zaitsev estava entre os mais de 1000 moderadores do Facebook cujas identidades foram acidentalmente reveladas àquelas pessoas cujas contas foram bloqueadas. O Facebook pediu desculpas a Zaitsev e prometeu proteger melhor seus funcionários. Essa é uma das muitas promessas feitas recentemente pela rede social à luz de muitos escândalos.

Políticas do Facebook


Apesar do Facebook insistir em melhorar as condições de trabalho, uma nova política de gerenciamento de tempo e requisitos constantes para obter uma certa qualidade de trabalho são ainda mais corrosivos para o tempo que os funcionários poderiam usar para aliviar o estresse depois de trabalhar com conteúdo traumático.

Um novo programa de gerenciamento de tempo que força os moderadores a registrar cada minuto de seu tempo de trabalho adicionou problemas a um ambiente de trabalho já estressante. O Facebook começou a usar esse programa este ano. Funciona com tanta eficiência que, se o moderador sai do computador, o programa o registra deixando o local de trabalho. E então ele tem que explicar essas lacunas aos gerentes.

Este programa também complica os esforços dos moderadores para tirar proveito dos programas de manutenção da boa saúde. Em muitos casos, em vez de visitar um psicólogo ou praticar ioga, os moderadores passam o tempo livre discutindo com os auditores sobre a exatidão da decisão tomada ou mudanças na "Bíblia".

Um dos moderadores do Facebook, que trabalha atualmente até hoje, diz que as pessoas que trabalham em "mercados movimentados", por exemplo, na região de língua inglesa, "não são incentivadas" a usar programas para melhorar seu bem-estar e que, por causa disso, é difícil para elas trabalharem o todo dia, sem se sentir psicologicamente apertado.

E em diferentes mercados, a carga pode ser muito diferente. Moderadores em países como Filipinas ou Tailândia dizem que visualizam 1.000 cópias do conteúdo por dia, enquanto um moderador europeu pode ver menos de 150 cópias em seções mais complexas, como a exploração infantil.

Os gerentes nem sempre percebem as causas dos problemas do moderador - as conseqüências do conteúdo visualizado, o estresse ou a combinação de ambos os fatores.

Um moderador que trabalhou na CPL por 14 meses, de 2017 a 2018, disse à VICE News que decidiu deixar a empresa quando o gerente o multou por um ataque de pânico no local de trabalho. Nesse momento, o moderador descobriu que sua mãe idosa, que morava em outro país, desapareceu após um derrame.

“Em um dia em que vivi o estresse mais sério da minha vida, quando pensei que poderia perder minha mãe, meu líder de equipe, um homem de 23 anos sem experiência de trabalho, decidiu me pressionar ainda mais, prometendo que poderia perder meu emprego ", Disse o moderador, que desejava permanecer anônimo.

Atitude "em relação aos criminosos"


Quando o estresse finalmente força os moderadores a deixar a empresa, muitos deles têm medo de criticar o Facebook ou a CPL por causa do acordo de não divulgação que assinaram antes de começar o trabalho. Zaitsev disse que, quando foi demitido na CPL, foi forçado a assinar um segundo acordo.

"Recusei-me a assinar e fui forçado a pressionar", disse ele. "Depois de muitas falhas, eles me expulsaram do prédio como criminoso, embora meu turno ainda não tivesse terminado e eu não tivesse tempo para me despedir dos meus colegas."

A empresa também alerta os funcionários a não falarem com a imprensa. A VICE News recebeu uma cópia do e-mail enviado pela CPL para seus funcionários em Dublin em 2018, que alertou sobre uma história secreta da empresa no Canal 4. A carta descrevia como os funcionários deveriam responder perguntas. “Talvez seja melhor responder a uma pergunta como“ A segurança das pessoas que usam o Facebook é uma das nossas principais prioridades ”, diz uma parte do documento.

O Facebook também instou os moderadores a remover qualquer link do Facebook de suas páginas do LinkedIn, para que os repórteres não pudessem entrar em contato com eles e perguntar sobre casos controversos, diz Zaitsev.

O Facebook disse à VICE News que eles se opunham aos links para a empresa on-line "por razões de segurança", e citou as filmagens na sede do YouTube em San Bruno, Califórnia, em abril de 2018, como exemplo.

Apesar da paranóia do Facebook, Zaitsev hoje faz parte de um grupo de dezenas de atuais e ex-moderadores que entraram em contato com a Coleman Legal Partners sobre ações judiciais contra essa empresa que não conseguiam lidar com o fornecimento de um ambiente de trabalho seguro. Diferentemente de uma ação coletiva recente nos Estados Unidos, cada moderador na Irlanda é obrigado a registrar uma ação separada.

“Quanto mais longe do Facebook, mais feliz a pessoa. Quanto menos feliz você estiver, mais tempo passará no Facebook ”, disse um dos ex-moderadores, preparando-se para entrar com uma ação no Facebook, à VICE News. “E nós, sua mãe, passamos o dia inteiro no Facebook. Você pode adivinhar que essa é uma prática doentia.

Source: https://habr.com/ru/post/pt484502/


All Articles