Facebook oblige les modérateurs à documenter leurs heures de travail à la seconde - allant même aux toilettes

«Les gens doivent marquer l'heure d'arrivée et de départ même lorsqu'ils vont aux toilettes, et expliquer pourquoi ils y sont restés est humiliant et insultant.»




Lorsque Valera Zaitsev a commencé à travailler à Dublin il y a quelques années en tant que modérateur de Facebook, il savait qu'il devrait examiner le contenu le plus dur et le plus dur d'Internet. Ce qu'il ne savait pas, c'est que Facebook compterait la durée de ses déplacements aux toilettes en quelques secondes.

"Les gens doivent noter l'heure d'arrivée et de départ même lorsqu'ils vont aux toilettes, et expliquer pourquoi ils y sont restés est humiliant et insultant", a déclaré Zaitsev à VICE News.

Facebook, qui a externalisé la plupart de ses tâches de modération de contenu à des sociétés tierces, au nombre de plus de 15 000, n'a pas toujours tenu ses employés en laisse aussi courte. Lorsque Zaitsev, alors âgé de 33 ans, a rejoint l'armée des modérateurs de Facebook en juillet 2016, il a été confronté à un flux de travail organisé par des professionnels, où il a suivi une formation détaillée et l'a très bien traité.

Mais bientôt tout a changé. Le nombre de modérateurs au bureau de Dublin a commencé à augmenter fortement - de 120 à 800 en seulement deux ans - les conditions ont commencé à se détériorer et la formation des modérateurs a presque disparu.

En 2018, le nombre de modérateurs de contenu dans le monde était passé à des dizaines de milliers, et Facebook a commencé à tester un système de gestion du temps conçu pour suivre les employés à chaque minute de la journée - y compris les pauses déjeuner, la formation, les «pauses bien-être» pour rendre visite à un psychologue ou s'entraîner pour le yoga et même le temps qu'ils ont passé sur le pot, selon Zaitsev et un autre employé travaillant aujourd'hui dans l'entreprise qui souhaitaient rester anonymes.

Au cours des dernières années, Facebook a été aux prises avec des critiques sur la façon dont les médias sociaux traitent le contenu horrible. L'entreprise a dépensé au moins un demi-milliard de dollars pour embaucher des modérateurs humains en plus d'algorithmes qui surveillent la propreté des pages.

En raison du contrôle sans cesse croissant des gouvernements des différents pays, le travail de ces modérateurs est extrêmement important. Ils sont la première ligne de défense de l'entreprise contre les matériaux horribles et illégaux, mais ils se plaignent des salaires médiocres et du manque de soutien. En conséquence, des problèmes de santé psychologiques surviennent les uns après les autres, et le mois dernier, le premier de nombreux procès a probablement été déposé en raison du fait que l'entreprise n'assure pas la sécurité au travail.

Les modérateurs de Facebook disent de plus en plus que chaque étape qu'ils suivent est suivie. Pour décider du contenu, les modérateurs doivent suivre les instructions d'un document en constante évolution, qu'ils appellent la «bible». Et chaque modérateur se voit attribuer une «évaluation de la qualité».

"Vous pouvez faire 4 à 5 erreurs par mois - c'est 2% d'erreurs, 98% de qualité", a déclaré Chris Gray, un ancien modérateur de Facebook qui a travaillé dans l'entreprise pendant 11 mois. "Si vous êtes venu travailler aujourd'hui et mardi ou mercredi, et que vous avez fait cinq erreurs, alors tout votre mois va en enfer, et vous ne pouvez penser qu'à la façon de retrouver cette marque."

Gray souffre d'un trouble de stress post-traumatique après avoir travaillé comme modérateur, et le mois dernier, en Irlande, a poursuivi le réseau social et CPL, l'un des sous-traitants de Facebook, embauchant des milliers de réviseurs de contenu aux États-Unis, en Europe et en Asie. La société est accusée d'avoir causé un «traumatisme psychologique» dans le procès en raison de mauvaises conditions de travail et de la nécessité de voir du matériel désagréable.

Des dizaines, voire des centaines, de modérateurs devraient déposer de telles poursuites. Une source du cabinet d'avocats Coleman & Partners travaillant pour Gray nous a indiqué que les nouveaux documents seront envoyés à la Cour suprême ce mois-ci.

CPL n'a pas répondu à notre demande de déclarations faites par les modérateurs actuels et anciens, et Facebook a refusé de commenter les déclarations qu'il enregistre chaque minute de temps des employés.

Le porte-parole de Facebook, Drew Pusateri, nous a dit que «le bien-être des personnes qui examinent le contenu de Facebook a été et reste notre priorité absolue».

Mais les modérateurs disent que ce n'est pas le cas. Facebook a donné accès à des conseils psychologiques, de nombreux modérateurs pensent qu'ils ne peuvent tout simplement pas les utiliser en raison d'une surveillance constante, de politiques en constante évolution et d'une application impitoyable des normes de qualité.

"Il y a des milliers de modérateurs dans l'Union européenne, et tous ont des conditions de travail dangereuses pour leur santé psychologique, et en général, à notre avis, sont tout simplement illégaux", a déclaré Corey Crider, directeur du groupe de lobbying britannique Foxglove. «Les lois européennes protègent fortement les travailleurs et nous pensons que Facebook et les autres réseaux sociaux devraient faire beaucoup plus pour créer des emplois sûrs pour les modérateurs.»

Suivre la Bible


Les modérateurs de Facebook consultent et suppriment le contenu marqué par des milliards d'utilisateurs de Facebook à travers le monde, ainsi que les algorithmes d'IA de l'entreprise. La plupart du contenu est assez courant, mais certains exemples sont très désagréables - abus sexuels, bestialité, violence.

Chaque jour, lorsque le modérateur est marqué le matin au travail, il reçoit le soi-disant Un «plan de match» est une routine qui indique le nombre d'exemples de contenu que le modérateur doit traiter et à partir de quelles files d'attente - texte offensant, harcèlement, menaces d'automutilation.

Gray a déclaré que les modérateurs CPL imposent également un temps moyen pour le traitement de la demande, ou le temps qui peut être consacré à chacun des exemples. Le temps varie selon le type de contenu étudié, mais Gray dit que cela ne prend généralement pas plus d'une minute.

Et si certains exemples de contenu violent clairement les règles et ne nécessitent pas beaucoup de réflexion pour être traités, d'autres s'avèrent moins évidents, c'est pourquoi vous devez consulter les «normes exécutives» de Facebook ou, comme certains modérateurs les appellent, la «bible».

Un document de 10000 mots contient 24 catégories différentes, divisées en trois groupes: comportement nuisible, contenu sensible et enfreindre la loi - cela découle d'une copie du document publié en mars 2018 et révisé par VICE News.


Selon les règles, le modérateur peut décider d'ignorer le contenu ou de le supprimer. S'il décide de le supprimer, il doit décrire ce contenu dans les moindres détails, taguer avec des tags de plusieurs catégories et sous-catégories. Ces informations sont ensuite introduites dans les algorithmes Facebook. Cela signifie que les modérateurs eux-mêmes forment le programme, qui pourra un jour les remplacer.

Bien que la «Bible» soit un guide utile, elle est mise à jour toutes les deux semaines et décrit l'utilisation de généralisations brumeuses d'un large éventail de contenus publiés sur Facebook.

"Vous devez avoir des règles générales que n'importe qui peut facilement appliquer dans différentes situations", a déclaré Gray.

Et dans de nombreuses situations, les modérateurs ne savent tout simplement pas quoi faire.

"Il y avait des jours où nous étions avec dix hommes à l'écran, quelqu'un avait une politique ouverte sur un autre écran, nous avons regardé l'écran et discuté de la façon dont la politique est appliquée à cette vidéo", a déclaré Gray.

Dans la plupart des cas, les modérateurs n'ont pas la possibilité de soulever le problème à un employé plus âgé. Dans tous les cas, ils doivent prendre une décision, et si cela s'avère erroné, cela affectera l'évaluation de la qualité de leur travail.

Normes de qualité irréalistes


Une équipe d'auditeurs examinant chaque mois des exemples sélectionnés de décisions du modérateur détermine si le modérateur avait raison ou non. Cependant, ces auditeurs sont les mêmes modérateurs dont l'évaluation de la qualité était supérieure à la moyenne.

Le modérateur donne une chance de faire appel aux décisions des auditeurs des mêmes auditeurs, et cela doit être fait dans les 48 heures - et tous les modérateurs interrogés par les rédacteurs de VICE News ont déclaré qu'ils devaient faire appel pour maintenir le niveau de qualité à 98 %

Les auditeurs donnent des notes négatives pour la mauvaise décision, en raison de laquelle le contenu à supprimer est resté sur Facebook, ou vice versa. Le processus permet également aux auditeurs d'affiner les modérateurs s'ils font le bon choix pour la mauvaise raison.

Mais les auditeurs sont loin d'être infaillibles et ne peuvent souvent pas expliquer leurs décisions. Déterminant s'il était nécessaire de laisser en ligne un message d'un utilisateur où la proposition `` vous devriez probablement vous suicider '' a été faite, l'un des auditeurs n'a pas pu donner de réponse définitive - cela découle des captures d'écran de la discussion avec le modérateur à la disposition de VICE News.

"Les auditeurs ne savent rien de votre marché, car ils viennent de différents pays et parlent différentes langues", a déclaré Zaitsev.

Cependant, Facebook n'est pas seulement incapable d'embaucher des personnes ayant une expérience adéquate pour la modération. La société permet également aux modérateurs de partager des informations personnelles avec des tiers.

Zaitsev faisait partie des plus de 1000 modérateurs de Facebook dont l'identité a été accidentellement révélée aux personnes dont ils ont bloqué les comptes. Facebook s'est excusé auprès de Zaitsev et a promis de mieux protéger ses employés. C'est l'une des nombreuses promesses faites récemment par le réseau social à la lumière de nombreux scandales.

Politiques Facebook


Malgré le fait que Facebook insiste sur l'amélioration des conditions de travail, une nouvelle politique de gestion du temps et des exigences constantes pour atteindre une certaine qualité de travail sont encore plus corrosives pour le temps que les employés pourraient utiliser pour soulager le stress après avoir travaillé avec un contenu traumatisant.

Un nouveau programme de gestion du temps qui oblige les modérateurs à enregistrer chaque minute de leur temps de travail a ajouté des problèmes à un environnement de travail déjà stressant. Facebook a commencé à utiliser ce programme cette année. Cela fonctionne si efficacement que si le modérateur quitte son ordinateur, le programme l'enregistre quittant le lieu de travail. Et puis il doit expliquer ces lacunes aux managers.

Ce programme complique également les efforts des modérateurs pour profiter des programmes de maintien d'une bonne santé. Dans de nombreux cas, au lieu de visiter un psychologue ou de pratiquer le yoga, les modérateurs passent leur temps libre à discuter avec les auditeurs de la justesse de la décision prise ou des modifications de la «Bible».

L'un des modérateurs de Facebook, qui y travaille encore aujourd'hui, dit que les personnes travaillant dans des «marchés occupés», par exemple, dans la région anglophone, ne sont «pas encouragées» à utiliser des programmes pour améliorer leur bien-être, et qu'à cause de cela, il leur est difficile de travailler sur l'ensemble jour, sans se sentir psychologiquement coincé.

Et sur différents marchés, la charge peut être très différente. Les modérateurs de pays tels que les Philippines ou la Thaïlande disent voir 1000 copies du contenu par jour, tandis qu'un modérateur européen peut voir moins de 150 copies dans des sections plus complexes, telles que l'exploitation des enfants.

Les gestionnaires ne remarquent pas toujours les causes des problèmes de modérateur - les conséquences du contenu qu'ils ont consulté, du stress ou d'une combinaison des deux facteurs.

Un modérateur qui a travaillé au CPL pendant 14 mois, de 2017 à 2018, a déclaré à VICE News qu'il avait décidé de quitter l'entreprise lorsque le directeur lui avait infligé une amende pour une attaque de panique sur le lieu de travail. À ce moment, le modérateur a découvert que sa mère âgée, qui vivait dans un autre pays, avait disparu après un AVC.

«Un jour où j'ai vécu le stress le plus grave de ma vie, alors que je pensais que je pouvais perdre ma mère, mon chef d'équipe, un homme de 23 ans sans expérience de travail, a décidé de me mettre encore plus de pression, promettant que je pourrais perdre mon emploi ", A déclaré le modérateur, qui souhaitait rester anonyme.

Attitude «vis-à-vis des criminels»


Lorsque le stress oblige finalement les modérateurs à quitter l'entreprise, beaucoup d'entre eux ont peur de critiquer Facebook ou CPL en raison de l'accord de confidentialité qu'ils ont signé avant de commencer à travailler. Zaitsev a déclaré que lorsqu'il a été licencié du CPL, il a été contraint de signer un deuxième accord de ce type.

"J'ai refusé de signer et j'ai été forcé de pousser", a-t-il déclaré. «Après de nombreux échecs, ils m'ont chassé du bâtiment en tant que criminel, bien que mon quart de travail ne soit pas encore terminé et que je n'ai pas eu le temps de dire au revoir à mes collègues.»

L'entreprise avertit également les employés de ne pas parler à la presse. VICE News a reçu une copie de l'e-mail envoyé par CPL à ses employés à Dublin en 2018, qui avertissait d'une histoire secrète à venir sur Channel 4. La lettre décrivait comment les employés devraient répondre aux questions. «Vous feriez peut-être mieux de répondre à une question comme« La sécurité des personnes utilisant Facebook est l'une de nos principales priorités »», indique une partie du document.

Facebook a également exhorté les modérateurs à supprimer tous les liens Facebook de leurs pages LinkedIn afin que les journalistes ne puissent pas les contacter et leur poser des questions sur des cas controversés, a déclaré Zaitsev.

Facebook a déclaré à VICE News qu'ils s'opposaient aux liens vers l'entreprise en ligne "pour des raisons de sécurité", et a cité l'exemple de la fusillade au siège de YouTube à San Bruno, en Californie, en avril 2018.

Malgré la paranoïa de Facebook, Zaitsev fait aujourd'hui partie d'un groupe de dizaines de modérateurs actuels et anciens qui ont contacté Coleman Legal Partners au sujet de poursuites judiciaires contre cette société qui n'a pas réussi à garantir un environnement de travail sûr. Contrairement à un récent recours collectif aux États-Unis, chaque modérateur en Irlande est tenu de déposer une action distincte.

«Plus loin de Facebook, plus la personne est heureuse. Moins vous êtes heureux, plus vous passerez de temps sur Facebook », a déclaré à VICE News l'un des anciens modérateurs, se préparant à intenter une action en justice contre Facebook. «Et nous, sa mère, avons passé toute la journée sur Facebook. Vous pouvez deviner que c'est une pratique malsaine. "

Source: https://habr.com/ru/post/fr484502/


All Articles