Annonce d'un film de la BBC à côté de la vidéo du renouveau nationaliste de PologneChaque jour, des centaines de personnes dans différentes parties des États-Unis (et peut-être à l'étranger) allument leur ordinateur et commencent à regarder YouTube. Mais ils ne le font pas par plaisir, bien au contraire. Les gens en ont assez de ce travail, mais ce sont les exigences de l'employeur temporaire de Google - ils doivent regarder des vidéos, rechercher des mots et des légendes haineux, marquer la vidéo comme "offensante" ou "sensible". Tout cela pour que, dans de telles vidéos, Dieu ne plaise, la publicité d'un grand annonceur, qui sera ensuite
révolté pour le soutien financier des racistes et des péchés similaires , ne tombe pas. Walmart, PepsiCo et Verizon y ont notamment fait face.
YouTube et Google se sont récemment retrouvés au centre du scandale concernant les activités du spécialiste du marketing Eric Feinberg, qui a décidé d'éradiquer le mal sur Internet - distribuant des sites et des vidéos qui correspondent à des groupes et des communautés haineuses avec des mots clés comme «tuer les juifs». Feinberg a publié des liens et des captures d'écran de ces sites et vidéos sur YouTube, qui gagnent avec succès en plaçant des annonces comprenant des marques bien connues. Grâce à l'activiste, le problème a atteint le niveau des médias nationaux, il y a eu beaucoup de publications avec des exemples de la façon dont une publicité d'une entreprise particulière apparaît dans une vidéo avec un langage grossier ou des déclarations haineuses.
En conséquence, YouTube a été contraint de resserrer la vérification du contenu sur lequel les annonces sont placées. Dans le blog officiel, Google a
promis de recruter plus de personnes qui surveilleront le respect des règles pour empêcher la diffusion d'annonces sur des pages au contenu inapproprié.
Google a tenu sa promesse et a embauché un grand nombre de travailleurs temporaires («tempos») via ZeroChaos et d'autres agences tierces pour embaucher du personnel temporaire. Ils travaillent à distance et regardent des vidéos YouTube depuis leur domicile, marquant et classant le contenu agressif.
Bien sûr, même un millier de «rythme» ne pourra pas voir toutes les vidéos que l'humanité met en ligne sur YouTube. Selon les dernières statistiques,
400 heures de vidéo y sont téléchargées
par minute , soit environ 600 000 heures par jour. Si nous supposons que pour évaluer la vidéo, vous devez regarder 10% de sa durée, alors la modération totale nécessitera la présence de 7500 employés travaillant par équipes de 8 heures (

) Il faudra près d'un million de dollars par jour pour payer ce montant de personnel.
Google considère donc le personnel spécialisé dans les protéines comme une solution temporaire avant d'intégrer un système d'IA au silicium normal qui catégorisera les vidéos de manière qualitative. En fait, maintenant le «rythme» procède à l'entraînement du réseau neuronal à l'aide d'exemples, en lui montrant des échantillons de vidéos «offensives» et «délicates».
Eric Feinberg a déclaré qu'au cours des années de recherche "il a compilé une base de données de milliers de mots et de phrases associés à une activité ignoble". Par exemple, l'un de ces mots est le mot serbe "hanva", qui correspond à l'activité des djihadistes. À son avis, Google mettra très longtemps à compiler une telle base, il est donc préférable de lui acheter une licence. Mais Google, comme nous le voyons, a suivi sa propre voie. "Le problème ne peut pas être résolu par des personnes et ne peut pas être résolu avec l'aide de personnes", a clairement déclaré Philipp Schindler, directeur des ventes de Google dans une récente
interview avec Bloomberg .
Les employés qui notent les vidéos eux-mêmes
savent très bien qu'ils forment l'IA. Dans le même temps, les employés sont convaincus que l'IA ne fera pas face à la tâche, car la classification de ce type de contenu est une question très délicate. Ils ont besoin d'yeux humains et d'un cerveau humain pour déterminer quel contenu est offensant, disent-ils. À cet égard, je rappelle la définition ailée de l'obscénité du juge américain
« je le sais quand je le vois » .
Mais Google pense différemment, et maintenant, lors du classement des vidéos, ils exigent des performances maximales des modérateurs. Les priorités ont changé, maintenant les performances ont priorité sur la précision, dans certains cas, elles nécessitent une note pour une vidéo toutes les heures après quelques minutes de visionnage. Les modérateurs utilisent différentes façons de gagner du temps: numérisez rapidement les titres, faites défiler la vidéo par à-coups pendant 10 secondes. Ils travaillent avec une minuterie qui affiche en permanence le temps consacré à la tâche et le délai estimé. En conséquence, il est nécessaire non seulement de marquer la vidéo comme «inappropriée», mais d'indiquer une catégorie spécifique: «Langage inapproprié» (sous-catégories: blasphèmes, incitation à la haine), «Cruauté» (sous-catégories: terrorisme, guerre et conflit, mort et tragédie, etc.) , "Drogues", "Sexe / Nudité" (sous-catégories: contenu offensant, nudité, autre). Le modérateur doit également indiquer «autre contenu sensible» si une vidéo provocante sexuellement excitante ou un contenu «sensationnel et choquant» est montré. Certains documents ne rentrent tout simplement pas dans ces catégories, ce qui complique le travail des modérateurs. Il est particulièrement difficile de juger lorsque les personnes dans une vidéo parlent une langue étrangère (Google recrute activement des modérateurs ayant une connaissance des langues étrangères).
Google injecte également des éléments de test avec une réponse bien connue dans le flux pour vérifier la qualité des modérateurs.
Les modérateurs disent qu'ils en ont déjà vu assez de tout le monde: suicide et telle cruauté, après avoir regardé ce qu'il faut un répit pendant plusieurs heures pour récupérer.
Après le lancement du programme de classification du contenu en 2004, ABE a payé 20 $ de l'heure aux modérateurs pour leur dur labeur sur la "télécommande". Si les nerfs peuvent résister, les heures supplémentaires pourraient fonctionner. Puis ABE a acquis WorkForceLogic, et ce dernier en 2012 a acquis ZeroChaos. À ce jour, les conditions de travail se sont dégradées: le salaire a été ramené à 15 $ de l'heure humiliante et la semaine de travail maximale a été limitée à 29 heures. Ces employés de Google n'ont pas de congés payés, ils peuvent perdre leur emploi à tout moment. Et le plus triste, c'est que chaque jour, ils rapprochent leur licenciement, alors qu'ils entraînent eux-mêmes la machine à faire leur travail.