YouTube-Mitarbeiter suchen im Video nach Hass. KI beobachtet und lernt


BBC-Filmwerbung neben dem Video Nationalist Revival of Poland

Jeden Tag schalten Hunderte von Menschen in verschiedenen Teilen der USA (und vielleicht auch im Ausland) ihre Computer ein und schauen sich YouTube an. Aber sie tun es nicht zum Vergnügen, ganz im Gegenteil. Die Leute haben diesen Job satt, aber dies sind die Anforderungen des vorübergehenden Arbeitgebers von Google. Sie müssen Videos ansehen, nach hasserfüllten Wörtern und Untertiteln suchen und das Video als "anstößig" oder "sensibel" markieren. Alles, damit in solchen Videos, Gott bewahre, die Werbung eines großen Werbetreibenden, der dann wegen finanzieller Unterstützung von Rassisten und ähnlichen Sünden empört wird , nicht fällt. Dem standen unter anderem Walmart, PepsiCo und Verizon gegenüber.

YouTube und Google befanden sich kürzlich im Zentrum des Skandals um die Aktivitäten des Vermarkters Eric Feinberg, der sich zum Ziel gesetzt hatte, das Böse im Internet auszurotten und Websites und Videos zu verbreiten, die Hassgruppen und Communitys mit Stichwörtern wie „Töte die Juden“ in Einklang bringen. Feinberg veröffentlichte Links und Screenshots solcher Websites und Videos auf YouTube, die durch die Platzierung von Anzeigen mit bekannten Marken erfolgreich verdient werden. Dank des Aktivisten erreichte das Problem das Niveau der nationalen Medien. Es erschienen zahlreiche Veröffentlichungen mit Beispielen dafür, wie eine Werbung eines bestimmten Unternehmens in einem Video mit übler Sprache oder hasserfüllten Aussagen erscheint.

Infolgedessen musste YouTube die Überprüfung des Inhalts, auf dem die Anzeigen geschaltet werden, verschärfen. Google hat im offiziellen Blog versprochen , mehr Personen einzustellen, die die Einhaltung der Regeln überwachen, um zu verhindern, dass Anzeigen auf Seiten mit unangemessenem Inhalt geschaltet werden.

Google hat sein Versprechen gehalten - und über ZeroChaos und andere Drittanbieter viele Zeitarbeiter („Tempi“) eingestellt, um Zeitarbeitskräfte einzustellen. Sie arbeiten remote und sehen sich YouTube-Videos von zu Hause aus an, um aggressive Inhalte zu markieren und zu klassifizieren.

Natürlich können selbst tausend "Tempo" nicht alle Videos anzeigen, die die Menschheit auf YouTube hochlädt. Nach den neuesten Statistiken werden dort 400 Minuten Video pro Minute heruntergeladen, was ungefähr 600.000 Stunden pro Tag entspricht. Wenn wir davon ausgehen, dass Sie zur Bewertung des Videos 10% seiner Dauer ansehen müssen, erfordert die vollständige Moderation die Anwesenheit von 7.500 Mitarbeitern, die in Schichten von 8 Stunden arbeiten ( (600000/10)/8=$750) Es wird fast eine Million Dollar pro Tag dauern, um diese Menge an Personal zu bezahlen.

Daher sieht Google Proteinmitarbeiter als vorübergehende Lösung, bevor ein normales Silizium-KI-System integriert wird, mit dem Videos qualitativ kategorisiert werden. Tatsächlich führt das „Tempo“ jetzt ein Training des neuronalen Netzwerks anhand von Beispielen durch und zeigt Beispiele von „anstößigen“ und „heiklen“ Videos.

Eric Feinberg sagte, dass im Laufe der Jahre der Forschung "eine Datenbank mit Tausenden von Wörtern und Phrasen zusammengestellt wurde, die mit abscheulichen Aktivitäten verbunden sind". Eines dieser Wörter ist beispielsweise das serbische Wort "Hanva", das mit der Aktivität von Dschihadisten korreliert. Nach seiner Meinung wird es sehr lange dauern, bis Google eine solche Basis erstellt hat. Daher ist es besser, eine Lizenz davon zu kaufen. Aber Google hat, wie wir sehen, seinen eigenen Weg gegangen. "Das Problem kann nicht von Menschen gelöst werden und kann nicht mit Hilfe von Menschen gelöst werden", erklärte Philipp Schindler, Google Sales Director, kürzlich in einem Interview mit Bloomberg .

Die Mitarbeiter, die die Videos selbst bewerten, sind sich bewusst, dass sie KI trainieren. Gleichzeitig sind die Mitarbeiter zuversichtlich, dass die KI die Aufgabe nicht bewältigen wird, da die Klassifizierung dieser Art von Inhalten eine sehr heikle Angelegenheit ist. Sie brauchen menschliche Augen und ein menschliches Gehirn, um herauszufinden, welcher Inhalt anstößig ist, sagen sie. In diesem Zusammenhang erinnere ich mich an die geflügelte Definition von Obszönität des amerikanischen Richters Ich weiß es, wenn ich es sehe .

Google denkt jedoch anders und jetzt, wenn Videos klassifiziert werden, benötigen sie die maximale Leistung der Moderatoren. Die Prioritäten haben sich geändert, jetzt hat die Leistung Vorrang vor der Genauigkeit. In einigen Fällen ist nach einigen Minuten eine Bewertung für ein stündliches Video erforderlich. Moderatoren verwenden verschiedene Methoden, um Zeit zu sparen: Scannen Sie Titel schnell und scrollen Sie 10 Sekunden lang in Rucken durch das Video. Sie arbeiten mit einem Timer, der ständig die für die Aufgabe aufgewendete Zeit und die geschätzte Frist anzeigt. Infolgedessen muss das Video nicht nur als "unangemessen" markiert werden, sondern auch eine bestimmte Kategorie angezeigt werden: "Unangemessene Sprache" (Unterkategorien: Obszönität, Anstiftung zum Hass), "Grausamkeit" (Unterkategorien: Terrorismus, Krieg und Konflikt, Tod und Tragödie usw.) , "Drogen", "Sex / Nacktheit" (Unterkategorien: anstößiger Inhalt, Nacktheit, andere). Der Moderator sollte auch "andere sensible Inhalte" angeben, wenn ein provokatives sexuell erregendes Video oder "sensationelle und schockierende" Inhalte gezeigt werden. Einige Materialien passen einfach nicht in diese Kategorien, was die Arbeit der Moderatoren erschwert. Es ist besonders schwierig zu beurteilen, wann Personen in einem Video eine Fremdsprache sprechen (Google rekrutiert aktiv Moderatoren mit Fremdsprachenkenntnissen).

Google fügt auch Testelemente mit einer bekannten Antwort in den Stream ein, um die Qualität der Moderatoren zu überprüfen.

Die Moderatoren sagen, dass sie bereits genug von allen gesehen haben: Selbstmord und solche Grausamkeiten, nachdem sie beobachtet haben, dass es einige Stunden dauert, bis sie sich erholt haben.

Nach dem Start des Inhaltsbewertungsprogramms im Jahr 2004 zahlte ABE den Moderatoren 20 US-Dollar pro Stunde für harte Arbeit an der "Fernbedienung". Wenn die Nerven standhalten können, könnten Überstunden funktionieren. Dann erwarb ABE WorkForceLogic und letztere 2012 ZeroChaos. Bisher haben sich die Arbeitsbedingungen verschlechtert: Die Bezahlung wurde auf erniedrigende 15 USD pro Stunde gesenkt, und die maximale Arbeitswoche war auf 29 Stunden begrenzt. Diese Google-Mitarbeiter haben keinen bezahlten Urlaub, sie können jederzeit ihren Arbeitsplatz verlieren. Und das Traurigste ist, dass sie jeden Tag ihre Entlassung näher bringen, während sie selbst die Maschine trainieren, um ihre Arbeit zu erledigen.

Source: https://habr.com/ru/post/de403399/


All Articles