英国广播公司(BBC)的电影广告,在波兰民族主义复兴视频旁边每天,美国不同地区(甚至在国外)的数百人打开计算机,开始观看YouTube。 但是,他们这样做并不是出于娱乐,相反。 人们已经厌倦了这份工作,但这是Google临时雇主的要求-他们应该观看视频,寻找可恶的文字和标题,并将视频标记为“令人反感”或“敏感”。 所有这些使得上帝禁止在这样的录像带中刊登广告,而该广告
主将因种族主义者和类似罪行的经济支持而被
反抗 。 沃尔玛,百事可乐和Verizon等都面临着这种情况。
YouTube和Google最近发现,他们在营销商Eric Feinberg的活动中处于丑闻的中心。EricFeinberg打算在互联网上消除恶魔-散布与仇恨团体和社区相匹配的网站和视频,并使用“杀死犹太人”之类的关键字。 费恩伯格(Feinberg)在YouTube上发布了此类网站和视频的链接和屏幕截图,通过放置包括知名品牌的广告成功获得了收入。 多亏了维权人士,问题才达到了国家媒体的水平,出现了很多出版物,举例说明了某个公司的广告如何在带有粗言秽语或仇恨言论的视频中出现。
结果,YouTube被迫加强对放置广告的内容的验证。 谷歌在官方博客中
承诺 ,将招募更多人员来监督规则的遵守情况,以防止广告出现在内容不当的网页上。
Google信守诺言-并通过ZeroChaos和其他第三方机构雇用了许多临时工(“节奏”)来雇用临时工。 他们可以远程工作,并在家中观看YouTube视频,并对攻击性内容进行标记和分类。
当然,即使是一千个“步调”,也无法观看人类上传到YouTube的所有视频。 根据最新统计,
每分钟可以下载
400个小时的视频 ,每天大约
可以下载600,000个小时。 如果我们假设要评估该视频,您需要观看其时长的10%,则要进行全面审核,需要有7,500名员工轮班工作8小时(
) 每天将需要近一百万美元来支付这笔工作人员。
因此,谷歌将蛋白质工作人员视为临时解决方案,然后再集成将以高质量方式对视频进行分类的常规硅AI系统。 实际上,现在“步伐”正在使用示例对神经网络进行训练,向其展示“令人反感”和“精致”的视频样本。
埃里克·费恩伯格(Eric Feinberg)说,多年来的研究“已经建立了一个包含数千个与恶意活动相关的单词和短语的数据库”。 例如,这些单词之一是塞尔维亚单词“ hanva”,与圣战分子的活动相关。 他认为,Google会花费很长时间来编译这样的基础,因此最好从中购买许可证。 但是,正如我们所见,谷歌已经走了自己的路。 Google销售总监Philipp Schindler在
接受 彭博社(Bloomberg)的近期
采访中明确表示:“这个问题不能由人解决,也不能在人的帮助下解决。”
自己给视频打分的员工都
非常清楚他们在训练AI。 同时,员工有信心AI不会胜任这项任务,因为此类内容的分类是一件非常微妙的事情。 他们说,他们需要人眼和人脑来查明哪些内容令人反感。 在这方面,我回想起美国法官
“ 我一看到就知道 ”关于淫秽的定义。
但是Google的看法有所不同,现在,在对视频进行分类时,他们要求主持人发挥最佳性能。 优先级已更改,现在性能优先于准确性,在某些情况下,观看几分钟后,需要对一个小时的视频进行评级。 主持人使用不同的方式来节省时间:快速扫描标题,以抽搐方式滚动浏览视频10秒钟。 他们使用计时器工作,该计时器不断显示在任务上花费的时间和预计的截止时间。 因此,不仅需要将视频标记为“不适当的”,而且还要指明一个特定的类别:“不适当的语言”(子类别:亵渎,煽动仇恨),“残酷”(子类别:恐怖主义,战争与冲突,死亡和悲剧等)。 ,“毒品”,“性/裸露”(子类别:令人反感的内容,裸露等)。 如果显示挑衅的性唤起视频或“耸人听闻的”内容,主持人还应指出“其他敏感内容”。 有些材料根本不适合这些类别,这使主持人的工作变得复杂。 判断视频中的人何时说外语尤其困难(Google正在积极招募具有外语知识的主持人)。
Google还会向流中注入具有众所周知答案的测试项目,以检查主持人的质量。
主持人说,他们已经看到了足够多的人:自杀和如此残酷的对待,看了这需要几个小时的喘息才能恢复。
在2004年推出内容分级计划后,ABE为主持人在“远程”上的辛勤工作支付了每小时20美元。 如果神经可以忍受,加班就可以了。 然后,ABE收购了WorkForceLogic,后者于2012年收购了ZeroChaos。 迄今为止,工作条件已经恶化:工资降低到每小时15美元,而且每周的最长工作时间限制为29小时。 这些Google员工没有带薪假期,他们可能会随时失业。 最可悲的是,他们每天都要自己解雇,而他们自己却在训练机器以完成工作。