Facebook zwingt die Moderatoren, sekundengenau ihre Arbeitszeiten zu dokumentieren - sogar auf die Toilette zu gehen

„Die Leute müssen die An- und Abreisezeit markieren, auch wenn sie auf die Toilette gehen, und erklären, warum sie dort geblieben sind, ist demütigend und beleidigend.“




Als Valera Zaitsev vor ein paar Jahren als Facebook-Moderator in Dublin anfing, wusste er, dass er sich die härtesten und härtesten Inhalte aus dem Internet ansehen musste. Was er nicht wusste war, dass Facebook die Dauer seiner Toilettenfahrten in Sekunden zählen würde.

"Die Leute müssen die An- und Abreisezeit notieren, auch wenn sie auf die Toilette gehen, und erklären, warum sie dort geblieben sind, was demütigend und beleidigend ist", sagte Zaitsev gegenüber VICE News.

Facebook, das mit mehr als 15.000 Mitarbeitern den größten Teil seiner Aufgaben im Bereich Content-Moderation an Drittunternehmen abgibt, hat seine Mitarbeiter nicht immer unter Kontrolle gehalten. Als der damals 33-jährige Zaitsev im Juli 2016 in die Armee der Facebook-Moderatoren eintrat, sah er sich einem professionell organisierten Workflow gegenüber, in dem er ausführlich geschult wurde und sehr nett zu ihm war.

Doch bald änderte sich alles. Die Zahl der Moderatoren im Dubliner Büro stieg rapide an - von 120 auf 800 in nur zwei Jahren -, und die Bedingungen verschlechterten sich zusehends, und die Ausbildung der Moderatoren verschwand beinahe.

Bis 2018 wuchs die Zahl der Moderatoren von Inhalten auf der ganzen Welt auf Zehntausende und Facebook testete ein Zeitmanagementsystem, mit dem Mitarbeiter jede Minute des Tages nachverfolgt werden konnten - einschließlich Mittagspausen, Schulungen, „Wellness-Pausen“, um einen Psychologen aufzusuchen oder zu trainieren Yoga und sogar die Zeit, die sie auf dem Topf verbrachten, sagten Zaitsev und ein anderer Angestellter, der heute in der Firma arbeitete und anonym bleiben wollte.

Facebook hat in den letzten Jahren mit der Kritik zu kämpfen, wie soziale Medien mit schrecklichen Inhalten umgehen. Das Unternehmen hat mindestens eine halbe Milliarde US-Dollar für die Einstellung von Moderatoren aufgewendet, zusätzlich zu Algorithmen zur Überwachung der Seitenreinheit.

Aufgrund der ständig zunehmenden Kontrolle durch die Regierungen verschiedener Länder ist die Arbeit dieser Moderatoren äußerst wichtig. Sie sind die erste Verteidigungslinie des Unternehmens gegen schreckliche und illegale Materialien, aber sie beklagen schlechte Gehälter und mangelnde Unterstützung. Infolgedessen treten nacheinander psychische Gesundheitsprobleme auf, und im vergangenen Monat wurde die erste von wahrscheinlich vielen Klagen eingereicht, da das Unternehmen keine Sicherheit am Arbeitsplatz bietet.

Facebook-Moderatoren sagen zunehmend, dass jeder Schritt, den sie befolgen, verfolgt wird. Moderatoren müssen bei der Entscheidung über den Inhalt den Anweisungen eines sich ständig ändernden Dokuments folgen, das sie als "Bibel" bezeichnen. Und jedem Moderator wird eine „Qualitätsbewertung“ zugeordnet.

"Sie können 4-5 Fehler pro Monat machen - es sind 2% Fehler, 98% Qualität", sagte Chris Gray, ein ehemaliger Facebook-Moderator, der 11 Monate lang im Unternehmen gearbeitet hat. „Wenn Sie heute und Dienstag oder Mittwoch zur Arbeit gekommen sind und fünf Fehler begangen haben, dann geht Ihr ganzer Monat in die Hölle und Sie können nur darüber nachdenken, wie Sie diese Marke wiedererlangen können.“

Gray leidet unter einer posttraumatischen Belastungsstörung, nachdem er als Moderator gearbeitet hat. Im vergangenen Monat wurde er in Irland gegen das soziale Netzwerk und gegen CPL, einen der Auftragnehmer von Facebook, verklagt und hat Tausende von Inhaltsprüfern in den USA, Europa und Asien eingestellt. Dem Unternehmen wird vorgeworfen, aufgrund schlechter Arbeitsbedingungen und der Notwendigkeit, unangenehmes Material anzusehen, ein „psychologisches Trauma“ in der Klage verursacht zu haben.

Von Dutzenden, wenn nicht Hunderten Moderatoren wird erwartet, dass sie solche Klagen einreichen. Eine Quelle der Anwaltskanzlei Coleman & Partners, die für Gray arbeitet, teilte uns mit, dass die neuen Dokumente diesen Monat an den Obersten Gerichtshof geschickt werden.

CPL antwortete nicht auf unsere Anfrage nach Aussagen aktueller und ehemaliger Moderatoren, und Facebook lehnte es ab, Aussagen zu kommentieren, die jede Minute der Mitarbeiterzeit aufgezeichnet werden.

Facebook-Sprecher Drew Pusateri sagte uns, dass "das Wohlergehen der Menschen, die Facebook-Inhalte überprüfen, unsere oberste Priorität war und bleibt".

Aber die Moderatoren sagen, dass dies nicht so ist. Facebook gab Zugang zu psychologischer Beratung, viele Moderatoren glauben, dass sie es aufgrund ständiger Überwachung, sich ständig ändernder Richtlinien und rücksichtsloser Durchsetzung von Qualitätsstandards einfach nicht nutzen können.

"In der Europäischen Union arbeiten Tausende von Moderatoren, und alle haben unsichere Arbeitsbedingungen für ihre psychische Gesundheit und sind unserer Meinung nach einfach illegal", sagte Corey Crider, Direktor der britischen Lobbygruppe Foxglove. "Die europäischen Gesetze schützen die Arbeitnehmer nachdrücklich und wir glauben, dass Facebook und andere soziale Netzwerke viel mehr tun sollten, um sichere Arbeitsplätze für Moderatoren zu schaffen."

Der Bibel folgen


Facebook-Moderatoren sehen und löschen Inhalte, die von Milliarden Facebook-Nutzern auf der ganzen Welt markiert wurden, sowie die AI-Algorithmen des Unternehmens. Die meisten Inhalte sind weit verbreitet, aber einige Beispiele sind sehr unangenehm - sexueller Missbrauch, Bestialität, Gewalt.

Jeden Tag, wenn der Moderator morgens bei der Arbeit markiert wird, erhält er das sogenannte Ein "Spielplan" ist eine Routine, die angibt, wie viele Beispiele von Inhalten der Moderator verarbeiten muss und in welchen Warteschlangen - beleidigender Text, Belästigung, Bedrohung durch Selbstverletzung.

Gray sagte, dass die CPL-Moderatoren auch die durchschnittliche Zeit für die Bearbeitung der Anfrage oder die Zeit, die für jedes der Beispiele aufgewendet werden kann, festlegen. Die Zeit variiert je nach Art des zu untersuchenden Inhalts, aber Gray sagt, dass dies normalerweise nicht länger als eine Minute dauert.

Und wenn einige Beispiele des Inhalts eindeutig gegen die Regeln verstoßen und nicht viel Gedanken erfordern, um verarbeitet zu werden, sind andere nicht so offensichtlich, weshalb Sie sich mit den „Executive Standards“ von Facebook oder, wie manche Moderatoren sie nennen, mit der „Bibel“ befassen müssen.

Ein Dokument mit 10.000 Wörtern enthält 24 verschiedene Kategorien, die in drei Gruppen unterteilt sind: schädliches Verhalten, sensibler Inhalt und Gesetzesverstoß. Dies geht aus einer Kopie des Dokuments hervor, das im März 2018 veröffentlicht und von VICE News geprüft wurde.


Gemäß den Regeln kann der Moderator entscheiden, ob der Inhalt ignoriert oder gelöscht werden soll. Wenn er es entfernen möchte, muss er diesen Inhalt detailliert beschreiben und mit Tags aus verschiedenen Kategorien und Unterkategorien versehen. Diese Informationen werden dann in Facebook-Algorithmen eingespeist. Dies bedeutet, dass die Moderatoren selbst das Programm trainieren, das sie eines Tages ersetzen können.

Obwohl die „Bibel“ ein nützlicher Leitfaden ist, wird sie alle zwei Wochen aktualisiert und beschreibt mithilfe nebliger Verallgemeinerungen eine breite Palette von Inhalten, die auf Facebook veröffentlicht wurden.

"Man muss allgemeine Regeln haben, die jeder leicht in verschiedenen Situationen anwenden kann", sagte Gray.

In vielen Situationen wissen die Moderatoren einfach nicht, was sie tun sollen.

"Es gab Tage, an denen wir mit zehn Männern am Bildschirm standen und jemand eine Richtlinie auf einem anderen Bildschirm geöffnet hatte. Wir haben uns den Bildschirm angesehen und darüber gestritten, wie die Richtlinie auf dieses Video angewendet wird", sagte Gray.

In den meisten Fällen haben Moderatoren nicht die Möglichkeit, einem älteren Mitarbeiter das Problem vorzustellen. In jedem Fall müssen sie eine Entscheidung treffen, und wenn sich herausstellt, dass sie falsch ist, hat dies Auswirkungen auf die Beurteilung der Qualität ihrer Arbeit.

Unrealistische Qualitätsstandards


Ein Auditorenteam, das jeden Monat ausgewählte Beispiele für Moderatorentscheidungen überprüft, stellt fest, ob der Moderator Recht hat oder nicht. Diese Auditoren sind jedoch dieselben Moderatoren, deren Qualitätsbewertung überdurchschnittlich war.

Der Moderator hat die Möglichkeit, gegen die Entscheidungen der Wirtschaftsprüfer des gleichen Wirtschaftsprüfers Einspruch einzulegen. Dies muss innerhalb von 48 Stunden erfolgen. Alle von den VICE News-Redakteuren befragten Moderatoren gaben an, dass sie Einspruch einlegen müssen, um das Qualitätsniveau bei 98 zu halten %

Prüfer bewerten die falsche Entscheidung negativ, weshalb die zu löschenden Inhalte auf Facebook verblieben sind oder umgekehrt. Das Verfahren ermöglicht es Auditoren auch, Moderatoren zu bestrafen, wenn sie aus dem falschen Grund die richtige Wahl treffen.

Die Prüfer sind jedoch weit davon entfernt, unfehlbar zu sein, und können ihre Entscheidungen oft nicht erklären. Als einer der Prüfer feststellte, ob es erforderlich war, den Beitrag eines Benutzers online zu lassen, in dem der Vorschlag "Sie sollten sich wahrscheinlich selbst umbringen" gemacht wurde, konnte er keine eindeutige Antwort geben. Dies ergibt sich aus den Screenshots der Diskussion mit dem Moderator, der VICE News zur Verfügung stand.

„Wirtschaftsprüfer kennen Ihren Markt nicht, da sie aus verschiedenen Ländern stammen und verschiedene Sprachen sprechen“, sagte Zaitsev.

Facebook ist jedoch nicht nur nicht in der Lage, Personen mit ausreichender Erfahrung für die Moderation einzustellen. Das Unternehmen erlaubt Moderatoren auch, persönliche Informationen mit Dritten zu teilen.

Zaitsev gehörte zu den mehr als 1000 Facebook-Moderatoren, deren Identität versehentlich den Personen aufgedeckt wurde, deren Konten sie blockierten. Facebook entschuldigte sich bei Zaitsev und versprach, seine Mitarbeiter besser zu schützen. Dies ist eines von vielen Versprechungen, die das soziale Netzwerk in letzter Zeit angesichts vieler Skandale gemacht hat.

Facebook-Richtlinien


Trotz der Tatsache, dass Facebook auf der Verbesserung der Arbeitsbedingungen besteht, wirken sich eine neue Zeitmanagementrichtlinie und die ständigen Anforderungen an die Erreichung einer bestimmten Arbeitsqualität noch aggressiver auf die Zeit aus, die Mitarbeiter nutzen könnten, um nach der Arbeit mit traumatischen Inhalten Stress abzubauen.

Ein neues Zeitmanagement-Programm, das Moderatoren dazu zwingt, jede Minute ihrer Arbeitszeit aufzuzeichnen, hat zu Problemen in einem ohnehin schon stressigen Arbeitsumfeld geführt. Facebook hat dieses Programm in diesem Jahr gestartet. Es funktioniert so effizient, dass das Programm aufzeichnet, dass der Moderator den Arbeitsplatz verlässt, wenn er seinen Computer verlässt. Und dann muss er den Managern diese Lücken erklären.

Dieses Programm erschwert auch die Bemühungen der Moderatoren, Programme zur Erhaltung der Gesundheit zu nutzen. Anstatt einen Psychologen aufzusuchen oder Yoga zu praktizieren, diskutieren die Moderatoren in ihrer Freizeit mit den Auditoren über die Richtigkeit der getroffenen Entscheidung oder die Änderung der „Bibel“.

Einer der Facebook-Moderatoren, der bis heute dort arbeitet, sagt, dass Menschen, die in "geschäftigen Märkten" arbeiten, zum Beispiel im englischsprachigen Raum, "nicht ermutigt" werden, Programme zur Verbesserung ihres Wohlbefindens zu verwenden, und dass es aus diesem Grund schwierig für sie ist, das Ganze zu erarbeiten Tag, ohne sich psychisch gequetscht zu fühlen.

Und in verschiedenen Märkten kann die Ladung sehr unterschiedlich sein. Moderatoren in Ländern wie den Philippinen oder Thailand geben an, täglich 1.000 Exemplare des Inhalts anzusehen, während ein europäischer Moderator in komplexeren Bereichen wie der Ausbeutung von Kindern weniger als 150 Exemplare antreffen kann.

Manager bemerken möglicherweise nicht immer die Ursachen von Moderatorproblemen - die Konsequenzen des angezeigten Inhalts, Stress oder eine Kombination aus beiden Faktoren.

Ein Moderator, der von 2017 bis 2018 14 Monate bei CPL gearbeitet hat, erklärte gegenüber VICE News, er habe beschlossen, das Unternehmen zu verlassen, als der Manager ihn wegen einer Panikattacke am Arbeitsplatz mit einer Geldstrafe belegt habe. In diesem Moment stellte der Moderator fest, dass seine ältere Mutter, die in einem anderen Land lebte, nach einem Schlaganfall verschwunden war.

„An einem Tag, an dem ich den schwersten Stress in meinem Leben erlebte und dachte, ich könnte meine Mutter verlieren, beschloss mein Teamleiter, ein 23-jähriger Mann ohne Berufserfahrung, noch mehr Druck auf mich auszuüben und versprach, dass ich meinen Job verlieren könnte ", Sagte der Moderator, der anonym bleiben wollte.

Einstellung "zu Verbrechern"


Wenn der Stress die Moderatoren schließlich zwingt, das Unternehmen zu verlassen, haben viele Angst, Facebook oder CPL wegen der Geheimhaltungsvereinbarung, die sie vor Arbeitsbeginn unterzeichnet haben, zu kritisieren. Zaitsev sagte, als er in der CPL entlassen wurde, war er gezwungen, ein zweites solches Abkommen zu unterzeichnen.

"Ich weigerte mich zu unterschreiben, und ich war gezwungen zu pushen", sagte er. "Nach vielen Misserfolgen haben sie mich als Kriminellen aus dem Gebäude vertrieben, obwohl meine Schicht noch nicht beendet war und ich keine Zeit hatte, mich von meinen Kollegen zu verabschieden."

Das Unternehmen warnt die Mitarbeiter auch davor, mit der Presse zu sprechen. VICE News erhielt eine Kopie der E-Mail, die CPL 2018 an seine Mitarbeiter in Dublin versandte und die vor einer geheimen Unternehmensgeschichte auf Channel 4 warnte. In dem Brief wurde beschrieben, wie Mitarbeiter Fragen beantworten sollten. "Vielleicht ist es besser, wenn Sie eine Frage wie" Die Sicherheit der Menschen, die Facebook nutzen, hat für uns oberste Priorität "beantworten", heißt es in einem Teil des Dokuments.

Facebook forderte die Moderatoren außerdem auf, alle Facebook-Links von ihren LinkedIn-Seiten zu entfernen, damit die Reporter sie nicht kontaktieren und nach kontroversen Fällen fragen können, so Zaitsev.

Facebook sagte gegenüber VICE News, dass sie aus "Sicherheitsgründen" gegen Links zum Online-Unternehmen sind, und nannte als Beispiel die Dreharbeiten im April 2018 in der YouTube-Zentrale in San Bruno, Kalifornien.

Trotz der Paranoia von Facebook gehört Zaitsev heute zu einer Gruppe von Dutzenden aktueller und ehemaliger Moderatoren, die sich wegen Klagen gegen dieses Unternehmen an Coleman Legal Partners gewandt haben, die es nicht ertragen könnten, ein sicheres Arbeitsumfeld zu schaffen. Im Gegensatz zu einer Sammelklage in den USA muss jeder Moderator in Irland eine separate Klage einreichen.

„Je weiter von Facebook entfernt, desto glücklicher ist die Person. Je weniger glücklich Sie sind, desto mehr Zeit werden Sie auf Facebook verbringen “, sagte einer der ehemaligen Moderatoren, der sich darauf vorbereitete, eine Klage bei Facebook einzureichen, gegenüber VICE News. „Und wir, seine Mutter, haben den ganzen Tag auf Facebook verbracht. Sie können sich vorstellen, dass dies eine ungesunde Praxis ist. “

Source: https://habr.com/ru/post/de484502/


All Articles