我们已经习惯了社交网络会影响西方国家的
选举和政治这一事实。 但是,它们可能使人们丧命,目前还没有解决方案。
2019年3月,
在新西兰的两个清真寺内有 49人丧生。 大屠杀的组织者在社交网络上进行了广播,以吸引尽可能多的人注意。 帕特里克·克鲁斯乌斯(Patrick Crusius)是屏幕另一侧的观众之一,他们以所见即所得,于8月4日在埃尔帕索(El Paso)的沃尔玛(Walmart)百货商店
进行了大规模枪击 ,造成21人死亡,另外26人受伤。
他的意图是利用网络上的一种极端主义资源,除其他外,他在其中表达了对来自新西兰的战斗机的支持。 在对灾难的原因进行调查之后,法国和新西兰转向其他国家和技术公司,以寻找能够阻止此类内容分发的技术。 该计划
得到了 17个国家,欧盟和Google和Facebook等8家主要技术公司的支持。
2019年4月,
斯里兰卡发生一系列爆炸, 炸死 200多人。 有关部门表示,他们
警告 Facebook加剧社交媒体暴力行为的潜在后果。 未能达成共识,并且由于人员伤亡,因此决定
禁止访问许多社交网络和即时通讯程序,包括Facebook和WhatsApp。 据当局称,有关事件的错误信息的传播可能导致该国的暴力升级。
在暴力事件爆发期间,社交网络和即时通讯员的封锁更为频繁。 例如,在2018年夏天,WhatsApp
绑架谣言的病毒传播在印度引发了一系列冲突。 在2019年2月,在Facebook,Instagram和WhatsApp上传播的错误信息
加剧了印度和巴基斯坦之间的
紧张关系。 现在,印度官员担心,通过Facebook传播假新闻可能会加剧即将到来的选举。
互联网在更发达国家(在
墨西哥 ,
美国和
德国) 滋生暴力。
一方面,当政府封锁社交网络时,这被视为限制言论自由的一种尝试。 但是,另一方面,上述案例表明,断开社交网络是各国防止暴力和生命损失的唯一工具。 社交网络如何变成一个侵略性的环境,有没有办法在不关闭互联网的情况下停止暴力?
从种族清洗到恐怖袭击
联合国的研究表明,Facebook在邻近斯里兰卡的缅甸反穆斯林情绪的上升中发挥了“决定性作用”。 社交网络中的谣言传播
导致人口
伤亡 :缅甸社交网络中的反穆斯林歇斯底里变成了全面的种族清洗。 政府部队已经使用Facebook数年来对付该国的罗兴亚族。
根据《无国界医生》
的报告 ,至少有6,700人成为现实世界的受害者。 2018年11月,Facebook发布
了一份关于缅甸发生情况
的独立评估报告 ,并
承认该公司在阻止其平台煽动分歧和煽动现实生活中的暴力方面做得不够。
在斯里兰卡发生恐怖袭击前一年,社交网络中的虚假谣言激起了佛教徒大声疾呼反对穆斯林:Facebook的新闻提要也起了
致命作用 。 同时,该国政府赞赏经过多年内战后建立民主的社会网络,因此对煽动种族仇恨的批评可以被认为是客观的。 在该国禁止访问他们的资源之前,Facebook的代表没有对政府的批评做出回应。 只有在那之后,这家美国公司才承诺雇用更多主持人,并改善与地方当局的互动。
死亡算法
网络上绝大多数极端内容的发行者和发行者在现实生活中并不构成仇恨犯罪。 但是,发生的仇恨犯罪通常与在线煽动者的活动有关。 俄罗斯科学家计算出的社会行为的数学模型
表明 ,存在一个转折点,此后,有些人变得痴迷于互联网所创造的扭曲的现实形式,以至于它开始起作用。
英国沃里克大学的一项研究
发现 ,2015年至2017年间德国难民袭击与Facebook高人气地区和极右翼民粹党“德国代表”(AfD)
职位针对难民的传播之间
存在相关性 。 在3335起攻击中,有3171起发生在在线威胁活动频繁的城市。 在德国开姆尼茨,在Twitter和Facebook上关于杀手移民的虚假谣言引发
了大规模示威 ,2018年8月聚集了6,000名参与者。
访问提供病毒内容的技术和平台并不是那么困难。 麻省理工学院(MIT)对约300万人撰写的126,000多个帖子进行的
研究表明 ,在所有信息类别中,谎言在社交媒体上的传播速度都比真相更快,更广泛。 社交网络的影响力被所谓的意识形态泡沫所加强:为了尽可能长时间地吸引人们的注意力,Facebook和YouTube等公司使用的算法会向用户推荐可能最有趣的帖子。 如果系统捕获了视频的受欢迎程度,则它会分配更多的视频,因此,该内容将获得更多观看次数,并且YouTube会因用户在资源上花费更多时间和观看更多广告而获得更多收益。
意识形态泡沫中的用户看到了一个世界的版本,在这个版本中,他们的观点永无争议,也没有发现相反的观点。 YouTube的观看者处于俄罗斯社会学家的“
信息对抗 ”模型中考虑的条件:用户不会以替代视点的形式遇到刺激物。 这会形成一个极其紧密和忠诚的信徒圈子,他们愿意在发生时模仿一个更激进的议程。 像这样的泡沫带来了暴力爆发的“引爆点”。
在YouTube推荐系统上工作了三年的工程师Guillaume Chaslo在2016年创建了
Algotransparency网站,他试图在该网站上揭示视频托管算法:一种内容与其他内容相比如何得到推广。 在2018年
匹兹堡犹太教堂枪击事件发生的前一天,Algotransparency记录了YouTube算法分发了一个阴谋治疗师大卫·艾克的视频,其中他指责犹太裔
亿万富翁 ,慈善家和超右翼乔治·索罗斯的挚爱目标“操纵世界政治事件”。 该视频的观看次数不到1000次,而当算法开始推广时,现在已超过70,000,这并不能证明视频与镜头之间存在因果关系,但可以理解如何查找挑衅性视频并打击其传播。
网络暴力
与暴力和网络媒体有关的另一个问题是带有屠杀和自杀的视频不受控制地分发。
四年前,在弗吉尼亚州的两名记者的凶手独立拍摄的视频在Facebook和Twitter上发布;三年前,
达拉斯的大规模枪击事件开始风靡一时。 社交媒体平台可以为想要对自己或他人造成严重伤害的人们提供全球受众。 这可能不是
几年前 Facebook向公众介绍Facebook Live时所指望的。
由于流媒体视频是Facebook,Twitter,亚马逊和其他公司继续投资的相对较新的Internet工具,因此尚不清楚在广播恐怖袭击时应采取的措施。 即使Facebook快速阻止了暴力内容,此类事件也立即被发现,促使人们通过Google和其他搜索引擎搜索原始视频。
上述在新西兰的袭击造成50人死亡,现在在Facebook上直播,然后在YouTube上重新发布,并在Reddit上进行了讨论,然后这些平台中的任何一个都做出了反应。 许多用户设法将其放置在他们的帐户中,这不仅需要通过自动方式进行第二次审核,而且还需要主持人的介入才能删除所有副本。 例如,在克赖斯特彻奇(Christchurch)悲剧发生近两个月后,美国有线电视新闻网(CNN)发现在许多站点上
仍可看到大屠杀广播的副本。
抢救溺水
近年来,在抗议或其他反政府活动之后,禁用互联网已在世界范围内越来越
普遍 ,尤其是在亚洲和非洲。
但是,互联网政策专家对封锁是否阻止恐怖分子实现其意图表示怀疑。 斯坦福大学的研究人员Jan Ridgak
发现 ,封锁印度的社交网络和网站会伴随着
暴力升级 。...封锁由于缺乏替代性渠道而通过其他渠道传播虚假新闻和谣言,如果没有快速的大规模互联网通信,就很难反驳。
无论如何,禁令仅在某种程度上有效,因为如果Internet处于关闭状态,用户可以使用称为VPN或虚拟专用网络的应用程序绕过通过Wi-Fi与周围设备进行通信的阻止程序或即时消息程序。
今年3月,印度议会委员会要求全球Facebook政治负责人乔尔·卡普兰(Joel Kaplan)
加强对WhatsApp和Instagram的
控制 ,要求公司检查用户帖子,以确保其中不包含任何非法内容。 这种方法的模棱两可是有两个原因的:它导致诸如WhatsApp之类的使用端到端加密的公司从根本上改变其平台,另一方面,引起了人们对机密性和过度状态控制的担忧。
手动控制
在中国,一支真正
的审查员队伍正在与拥有数亿用户的不当社交媒体内容
作斗争。
哈佛大学的研究人员对他们的人数进行了前所未有的评估,其中包括政府博客和所谓的互联网警察(互联网警察),他们从网络资源中过滤掉内容。 得益于中国应用程序的迅速发展,审查员的影响力远远超出了中东的边界:Facebook创始人马克·扎克伯格(Mark Zuckerberg)
指责 TikTok社交网络屏蔽了与香港甚至美国的抗议活动有关的内容。
如果危险内容位于天帝国之外,
则使用大枪 ,这会减慢不良资源的工作。 例如,根据帕维尔·杜罗夫(Pavel Durov)的说法,中国政府于6月13日发动了DDoS攻击,以减慢Telegram的运行,当时成千上万的香港市民包围政府大楼以
抗议该法案 ,该
法案允许将人们引渡到中国大陆法院。
但是即使是这样一个功能强大的系统和大量的主持人也无法在合理的时间内手动查看每个下载的文件,并且流媒体广播的增长也带来了识别残酷内容的新困难,因为可以在检查员知道广播之前就播放了视频。
自动化技术远非完美,它提供了唯一的机会来标记和阻止仅重复最糟糕的Web内容。 根据YouTube的统计,只有
73%的自动标记的视频在至少一个人看到之前被删除。
多年来,Facebook和Google都开发并实施了自动工具,可以检测和删除违反其政策的照片,视频和文字。 例如,Facebook使用微软的
PhotoDNA检测儿童色情内容。 Google已经开发了自己
的此开源软件
版本 。 这些公司还加入了一个名为
“全球反恐互联网论坛”的组织,以共享已知恐怖内容的信息,从而投资于检测极端主义信息的技术。 对于检测到的非法内容,将生成数字签名,以便在重复下载时将其识别(并禁止使用)。
但是,如果不是有关照片和视频,而是有关流视频,则自动审核变得更加困难。 正如Google的总法律顾问肯特·沃克(Kent Walker)在2017年的
博客中所写,“汽车可以帮助识别有问题的视频,但是人为因素在决定暴力宣传与宗教言论之间的界限时仍然起着决定性作用。”
尽管技术公司是世界上最富有的行业,但技术公司
仍无法创建有效的AI来主动阻止此类内容。 因此,Facebook和YouTube拥有一组检查员,他们在世界各地观看视频,与此同时,越来越多地面临数据量问题。 也许YouTube和Facebook都变得太大而无法审核。
马克·扎克伯格本人似乎不确定自动化系统的功能:他准备
将对不良资产的控制权移交
给国家 ,包括“杀手级”内容和政治广告。 “直到最近,中国以外几乎所有国家/地区的互联网都是由美国平台定义的,其中言论自由的价值观很强。 亿万富翁在乔治敦大学的演讲中说,无法保证这些价值观会赢。 但是,是否有保证,在将内容的控制权移交给任何国家的政府的情况下,根据中国的情况,我们将不会受到全球网络的审查? 马克,这是我们想要的互联网吗?
尼基塔·沙普林
不明飞行物护理分钟
这些材料可能会引起矛盾的感觉,因此在写评论之前,请刷新您记忆中的重要内容: