
地球实际上是平坦的,美国人从未降落在月球上,秘密政府统治着世界-
最流行的阴谋论很容易在YouTube上找到。 由于
过滤器的
泡沫 ,
心理保守主义 ,
选择性的感知以及
事实错觉的
影响,一个人在互联网上搜索可以证实其观点的信息,如果与已建立的信念相矛盾,则倾向于忽略新信息。
YouTube打算克服这种人性的不愉快之处。 周五,互联网上最大的视频服务
宣布计划从推荐列表中排除带有阴谋论的视频。
多年来 ,YouTube
一直在推荐会传播错误信息的视频,
因此遭到批评 。 现在该政策有所放松。 2019年1月25日,YouTube在官方博客上宣布,它将不再提供带有“边界内容”的视频,并且“以有害的方式误导用户”,即使该视频本身并不与社区的建议相抵触且不能删除。
YouTube表示,政策变更对平台上所有视频片段的影响不到1%。 但是YouTube库中有数十亿个条目,这的确很多。
最近,Facebook,YouTube,Twitter和其他UGC平台因传播错误信息,假货,阴谋论和其他病毒性信息而受到严重批评,这些信息的性质很容易在社交网络上传播。 有两种情况。 一方面,对用户内容的审查违反了基本人权。 另一方面,没有人禁止人们发表意见,但该平台也有权应用自己的规则,即使它带来了利润(观点数量,广告数量等),至少也无助于假货的分发。
社交媒体被迫听这些要求。 例如,Facebook最近
禁止了在波罗的海国家和东欧从事宣传
的Sputnik机构雇员的数百个帐户 。 Twitter采取了类似的措施,
删除了用于协调操纵舆论的帐户 。
对社交媒体的主要抱怨是,即使用户没有明确表达对内容的兴趣,他们也会推荐可疑内容。 例如,最近YouTube毫无道理地建议数百万用户观看9月11日攻击的视频记录。 他还被指控扩大该国的政治分歧,将本已有偏见的观众推向更极端的角度。 研究表明,YouTube的真正算法正在
系统地向人们推荐越来越多的极端视频 ,涉及他以前感兴趣的话题。 机器学习过程中的推荐算法可能会出现这种情况-也许这是一种真正有效的策略,可以最大程度地增加视图数量。
评论家说 ,但这就是YouTube成为“ 21世纪激化社会的最强大工具之一”的方式。
这项新政策也是YouTube对内容采取更为激进的做法的最新例证,即使这种行为不违反
社区准则 ,也被许多人认为是不愉快的。
在2017年底,YouTube将“有争议的宗教或至上主义者”内容移至了“受限状态”,在该状态下,视频无法通过广告获利,评论和喜欢则被禁用。 某些视频附有一条简短消息,说明它们可能不适当或令人反感。
YouTube列举了三个不再推荐的视频示例:
- 谁为大病提倡假奇迹疗法;
- 谁声称地球是平坦的;
- 关于9月11日袭击等历史事件做出虚假陈述的内容。
当然,这还不足以完全过滤掉错误信息,但检查制度需要小心,因为它是双刃武器。
YouTube将继续向明确订阅此频道的用户推荐可疑视频,并将在搜索结果中留下错误信息:“我们认为,这一变化在维护言论自由和尊重我们对用户的责任之间建立了平衡,” YouTube在官方网站上写道博客文章。