Nous sommes déjà habitués au fait que les réseaux sociaux influencent les
élections et la politique dans les pays occidentaux. Mais ils peuvent coûter la vie aux gens, et il n'y a pas encore de solution.
En mars 2019, 49 personnes ont été tuées
dans deux mosquées en Nouvelle-Zélande . Les organisateurs du massacre l'ont diffusé sur les réseaux sociaux afin d'attirer l'attention du plus grand nombre possible. Patrick Crusius faisait partie des téléspectateurs de l'autre cÎté de l'écran qui, sous l'impression de ce
qu'il a vu, ont
organisĂ© une fusillade de masse dans le grand magasin Walmart Ă El Paso le 4 aoĂ»t, tuant 21 personnes et en blessant 26 autres. Les enquĂȘteurs affirment que le suspect a
publié des informations plusieurs mois avant la tragédie.
ses intentions sur l'une des ressources extrĂ©mistes du rĂ©seau, oĂč il a exprimĂ©, entre autres, son soutien Ă un combattant nĂ©o-zĂ©landais. Ă la suite d'une enquĂȘte sur les causes de la catastrophe, la France et la Nouvelle-ZĂ©lande se sont tournĂ©es vers d'autres pays et sociĂ©tĂ©s technologiques pour trouver des technologies qui empĂȘcheraient la diffusion de tels contenus. L'initiative a Ă©tĂ©
soutenue par 17 pays, l'UE et 8 grandes entreprises technologiques, dont Google et Facebook.
En avril 2019, une
série d'explosions au Sri Lanka a tué plus de 200 personnes. Les autorités ont déclaré avoir
averti Facebook des conséquences potentielles de l'aggravation de la violence sur les réseaux sociaux. La compréhension n'a pas été atteinte et à la suite de victimes humaines, il a été décidé de
bloquer l'accÚs à un certain nombre de réseaux sociaux et de messageries instantanées, dont Facebook et WhatsApp. Selon les autorités, la diffusion d'informations erronées sur les événements pourrait provoquer une escalade de la violence dans le pays.
Le blocage des réseaux sociaux et des messageries instantanées lors des flambées de violence se produit plus souvent. Par exemple, à l'été 2018, la propagation virale des
rumeurs d'enlÚvement de WhatsApp a provoqué une série d'affrontements en Inde. Et en février 2019, la désinformation qui s'est répandue sur Facebook, Instagram et WhatsApp a
accru les tensions entre l'Inde et le Pakistan. Maintenant, les responsables en Inde craignent que la diffusion de fausses nouvelles via Facebook ne puisse alimenter la situation lors des prochaines élections. En ligne
engendre la violence dans les pays plus développés: au
Mexique ,
aux Ătats-Unis et en
Allemagne .
D'une part, lorsque les gouvernements bloquent les réseaux sociaux, cela est perçu comme une tentative de restreindre la liberté d'expression. Mais d'un autre cÎté, les cas susmentionnés montrent que la déconnexion des réseaux sociaux est le seul outil pour les pays pour prévenir la violence et les pertes de vie. Comment les réseaux sociaux sont-ils devenus un environnement agressif et existe-t-il un moyen de mettre fin à la violence sans désactiver Internet?
Du nettoyage ethnique aux attaques terroristes
Des études de l'
ONU ont montré que Facebook a joué un «rÎle déterminant» dans la montée du sentiment anti-musulman au Myanmar, au Sri Lanka voisin. La propagation des rumeurs dans les réseaux sociaux a
fait des victimes parmi la population: l'hystérie anti-musulmane dans les réseaux sociaux du Myanmar s'est transformée en un nettoyage ethnique à grande échelle. Les forces gouvernementales utilisent Facebook depuis plusieurs années pour se
propager contre l'ethnie rohingya du pays. Au moins 6 700 personnes sont devenues des victimes dans le monde réel,
selon un rapport de Médecins sans frontiÚres. En novembre 2018, Facebook a publié
une évaluation indépendante de ce qui se passait au Myanmar et a
admis que la sociĂ©tĂ© n'avait pas fait assez pour empĂȘcher sa plate-forme d'inciter aux dĂ©saccords et Ă l'incitation Ă la violence dans la vie rĂ©elle.
Un an avant les attentats terroristes au Sri Lanka, de fausses rumeurs dans les réseaux sociaux ont incité les bouddhistes à dénoncer les musulmans: le fil d'actualité Facebook a également joué un
rĂŽle fatal . Dans le mĂȘme temps, le gouvernement du pays apprĂ©cie les rĂ©seaux sociaux pour aider Ă Ă©tablir la dĂ©mocratie aprĂšs de nombreuses annĂ©es de guerre civile, de sorte que leurs critiques pour avoir incitĂ© Ă la haine raciale peuvent ĂȘtre considĂ©rĂ©es comme objectives. Les reprĂ©sentants de Facebook n'ont rĂ©pondu aux critiques du gouvernement que lorsque l'accĂšs Ă leurs ressources a Ă©tĂ© bloquĂ© dans le pays. Ce n'est qu'aprĂšs cela que l'entreprise amĂ©ricaine a promis d'embaucher plus de modĂ©rateurs et d'amĂ©liorer l'interaction avec les autoritĂ©s locales.
Algorithmes de mort
La grande majoritĂ© des Ă©diteurs et des distributeurs de contenu extrĂȘme sur le Web ne commettent pas de crimes de haine dans la vie rĂ©elle. Mais les crimes de haine qui se produisent sont souvent liĂ©s aux activitĂ©s des instigateurs en ligne. Le modĂšle mathĂ©matique du comportement social calculĂ© par les scientifiques russes
montre qu'il y a un tournant, aprÚs lequel certaines personnes deviennent tellement obsédées par la version déformée de la réalité créée par Internet qu'elle commence à agir.
Une étude de l'Université de Warwick en Grande-Bretagne a
révélé une corrélation entre les attaques contre les réfugiés en Allemagne entre 2015 et 2017 avec des zones à forte popularité sur Facebook et la diffusion des
messages du parti populiste d'extrĂȘme droite «Alternative pour l'Allemagne» (AfD)
contre les rĂ©fugiĂ©s . Sur 3335 attaques, 3171 se sont produites dans des municipalitĂ©s Ă forte activitĂ© de menace en ligne. Ă Chemnitz, en Allemagne, de fausses rumeurs concernant des tueurs de migrants sur Twitter et Facebook ont ââconduit
à des manifestations de masse , rassemblant 6000 participants en août 2018.
Accéder aux technologies et aux plates-formes qui fournissent du contenu viral n'est pas si difficile. Une étude du Massachusetts Institute of Technology (MIT) de plus de 126 000 articles rédigés par environ 3 millions de personnes a
montré que les mensonges se propagent sur les réseaux sociaux beaucoup plus rapidement et plus largement que la vérité dans toutes les catégories d'informations. L'influence des réseaux sociaux est renforcée par les soi-disant bulles idéologiques: pour garder l'attention des gens sur leurs sites le plus longtemps possible, des entreprises comme Facebook et YouTube utilisent des algorithmes qui recommandent les publications potentiellement les plus intéressantes à l'utilisateur. Si le systÚme capte la popularité d'une vidéo particuliÚre, il la distribue davantage et, par conséquent, le contenu reçoit plus de vues et YouTube - plus d'argent, car les utilisateurs passent plus de temps sur la ressource et voient plus de publicité.
Les utilisateurs dans des bulles idéologiques voient une version du monde dans laquelle leurs opinions ne sont jamais contestées et les opinions opposées ne sont pas trouvées. Le spectateur de YouTube tombe dans les conditions envisagées dans le modÚle de "
confrontation informationnelle " des sociologues russes: l'utilisateur ne rencontre pas d'irritant sous la forme de points de vue alternatifs. Cela crĂ©e un cercle extrĂȘmement Ă©troit et fidĂšle d'adhĂ©rents qui sont prĂȘts Ă imiter un programme plus radical s'il se produit. Des bulles comme celles-ci apportent des «points de basculement» dans lesquels la violence se rĂ©pand.
L'ingénieur Guillaume Chaslo, qui a travaillé sur les systÚmes de recommandation de YouTube pendant trois ans, a créé le site Web
Algotransparency en 2016, oĂč il tente de dĂ©mĂȘler les algorithmes d'hĂ©bergement vidĂ©o: comment un contenu est promu par rapport aux autres. La veille du
tournage à la synagogue de Pittsburgh en 2018, Algotransparency a enregistré que l'algorithme YouTube distribue une vidéo du thérapeute du complot David Ike, dans laquelle il accuse le
milliardaire juif, philanthrope et cible bien-aimĂ©e de l'extrĂȘme droite George Soros de "manipuler des Ă©vĂ©nements politiques dans le monde". La vidĂ©o avait moins de 1 000 vues, lorsque l'algorithme a commencĂ© Ă la promouvoir, elle en compte maintenant plus de 70 000. Cela ne prouve pas une relation de cause Ă effet entre la vidĂ©o et le tournage, mais elle permet de comprendre comment trouver des vidĂ©os provocantes et lutter contre leur distribution.
Violence en ligne
Un autre problÚme lié à la violence et aux médias de réseau est la distribution incontrÎlée de vidéos avec massacres et suicides.
Il y a
quatre ans , une vidéo tournée indépendamment par le tueur de deux journalistes en Virginie a été distribuée sur Facebook et Twitter; il y a trois ans,
les tirs de masse à Dallas sont devenus viraux. Les plates-formes de médias sociaux peuvent offrir une audience mondiale aux personnes qui souhaitent se faire du mal ou se faire du mal. Ce n'est probablement pas ce sur quoi Facebook comptait quand il a présenté Facebook Live au public
il y a plusieurs
années .
Ătant donnĂ© que le streaming vidĂ©o est un outil relativement nouveau sur Internet dans lequel Facebook, Twitter, Amazon et d'autres sociĂ©tĂ©s continuent d'investir, on ne sait pas quoi faire en cas de diffusion d'attaques terroristes en direct. MĂȘme si Facebook bloque rapidement le contenu violent, de tels incidents sont instantanĂ©ment connus, ce qui incite les utilisateurs Ă rechercher des vidĂ©os originales via Google et d'autres moteurs de recherche.
L'attaque susmentionnée en Nouvelle-Zélande, qui a tué 50 personnes, a
été diffusée en direct sur Facebook, republiée sur YouTube et discutée sur Reddit avant que l'une de ces plateformes ne réagisse. De nombreux utilisateurs parviennent à le placer dans leurs comptes, ce qui nécessite un deuxiÚme audit non seulement par des moyens automatiques, mais aussi avec la participation de modérateurs afin de supprimer toutes les copies. Par exemple, prÚs de deux mois aprÚs la tragédie de Christchurch, CNN a trouvé des copies des émissions du massacre
toujours disponibles sur de nombreux sites.
Sauvetage de la noyade
Ces derniÚres années, la désactivation d'Internet est devenue de plus en plus
courante dans le monde, en particulier en Asie et en Afrique, aprÚs des manifestations ou d'autres activités antigouvernementales.
Cependant, les experts en politique d'Internet doutent que les blocages empĂȘchent les terroristes de rĂ©aliser leurs intentions. Le chercheur de l'UniversitĂ© de Stanford, Jan Ridgak, a
constaté que le blocage des réseaux sociaux et des sites Web en Inde s'accompagnait d'une
escalade de la violence ... Le blocage des déversements de fausses nouvelles et des rumeurs par d'autres canaux, en l'absence de communications Internet de masse rapides, il est plus difficile à réfuter.
Dans tous les cas, les interdictions ne sont efficaces que dans une certaine mesure, car les utilisateurs peuvent utiliser des applications appelées VPN ou réseaux privés virtuels pour contourner le blocage ou les messageries instantanées qui communiquent avec les appareils environnants via Wi-Fi si Internet est désactivé.
En mars, la commission parlementaire indienne a demandé à Joel Kaplan, le responsable de la politique mondiale de Facebook,
de resserrer le contrĂŽle sur WhatsApp et Instagram, obligeant les entreprises Ă vĂ©rifier les publications des utilisateurs pour s'assurer qu'elles ne contiennent rien d'illĂ©gal. Cette approche est ambiguĂ« pour deux raisons: elle conduit des sociĂ©tĂ©s telles que WhatsApp, qui utilisent le chiffrement de bout en bout, Ă changer radicalement leurs plates-formes et, d'autre part, soulĂšve des prĂ©occupations concernant la confidentialitĂ© et le contrĂŽle excessif de l'Ătat.
Commande manuelle
En Chine, une véritable
armée de censeurs lutte contre le contenu inapproprié des médias sociaux avec des centaines de millions d'utilisateurs. Des chercheurs de
l'Université Harvard ont évalué leur nombre à des dizaines de milliers de participants sans précédent, y compris des blogueurs gouvernementaux et la soi-disant police Internet, qui filtrent le contenu des ressources du réseau. Grùce au développement rapide des applications chinoises, l'influence des censeurs s'étend bien au-delà des frontiÚres de l'Empire du Milieu: le fondateur de Facebook Mark Zuckerberg a
accusĂ© le rĂ©seau social TikTok de bloquer les contenus liĂ©s aux manifestations Ă Hong Kong, mĂȘme aux Ătats-Unis.
Si un contenu dangereux se trouve en dehors de l'Empire céleste, le
Grand Arme à feu est utilisé , ce qui ralentit le travail des ressources répréhensibles. Par exemple, selon Pavel Durov, le gouvernement chinois a mené une attaque DDoS pour ralentir Telegram le 13 juin, lorsque des centaines de milliers de citoyens de Hong Kong ont encerclé le bùtiment du gouvernement pour
protester contre le projet de loi , qui permet d'extrader les gens vers la Chine continentale pour les juger.
Mais mĂȘme un systĂšme aussi puissant et une armĂ©e de modĂ©rateurs ne peuvent pas afficher manuellement chaque fichier tĂ©lĂ©chargĂ© dans un dĂ©lai raisonnable, et la croissance de la diffusion en continu entraĂźne de nouvelles difficultĂ©s pour reconnaĂźtre le contenu cruel, car la vidĂ©o peut ĂȘtre diffusĂ©e avant que le censeur ne sache qu'il a Ă©tĂ© diffusĂ©.
Les technologies automatisĂ©es sont loin d'ĂȘtre parfaites et offrent la seule possibilitĂ© de signaler et d'empĂȘcher la rĂ©pĂ©tition du contenu le plus flagrant du Web. Selon les statistiques YouTube, seulement
73% des vidéos marquées automatiquement sont supprimées avant qu'au moins une personne ne les voie.
Depuis de nombreuses annĂ©es, Facebook et Google ont dĂ©veloppĂ© et mis en Ćuvre des outils automatisĂ©s qui peuvent dĂ©tecter et supprimer des photos, des vidĂ©os et du texte qui violent leurs politiques. Par exemple, Facebook utilise
PhotoDNA de Microsoft pour détecter la pornographie enfantine. Google a développé sa propre
version de ce logiciel open source. Ces entreprises ont également investi dans des technologies pour détecter les messages extrémistes, rejoignant un groupe appelé
Global Internet Forum on Counterterrorism pour échanger des informations sur le contenu terroriste connu. Pour le contenu illégal détecté, des signatures numériques sont générées qui permettent de le reconnaßtre lors de téléchargements répétés (et de l'interdire).
Mais la modération automatisée devient beaucoup plus difficile s'il ne s'agit pas de photos et de vidéos, mais de la vidéo en streaming. Comme l'écrivait l'avocat général de Google, Kent Walker sur son
blog en 2017, "les voitures peuvent aider à identifier les vidéos problématiques, mais le facteur humain joue toujours un rÎle décisif dans les nuances de la détermination de la frontiÚre entre la propagande violente et les déclarations religieuses". Les sociétés technologiques
n'ont pas encore Ă©tĂ© en mesure de crĂ©er une IA efficace pour bloquer de maniĂšre proactive un tel contenu, bien qu'il s'agisse de l'industrie la plus riche du monde. Par consĂ©quent, Facebook et YouTube ont des Ă©quipes de censeurs qui regardent des vidĂ©os dans le monde entier et sont en mĂȘme temps de plus en plus confrontĂ©es au problĂšme du volume de donnĂ©es. Peut-ĂȘtre que YouTube et Facebook sont devenus trop grands pour ĂȘtre modĂ©rĂ©s.
Il semble que Mark Zuckerberg lui-mĂȘme ne soit pas sĂ»r des capacitĂ©s des systĂšmes automatisĂ©s: il est prĂȘt
à transférer le contrÎle des actifs en difficulté
Ă l'Ătat , y compris le contenu «tueur» et la publicitĂ© politique. «Jusqu'Ă rĂ©cemment, Internet dans presque tous les pays en dehors de la Chine Ă©tait dĂ©fini par des plateformes amĂ©ricaines, dans lesquelles les valeurs de la libertĂ© d'expression sont fortes. Il n'y a aucune garantie que ces valeurs gagneront », a dĂ©clarĂ© le milliardaire dans un discours Ă l'UniversitĂ© de Georgetown. Mais y a-t-il une garantie qu'en cas de transfert du contrĂŽle du contenu au gouvernement d'un pays, nous ne recevrons pas la censure du RĂ©seau mondial selon le scĂ©nario chinois? Est-ce le genre d'Internet que nous voulons, Mark?
Nikita Tsaplin
Minute de soins OVNI
Ce matériel peut provoquer des sentiments contradictoires, donc avant d'écrire un commentaire, rafraßchissez quelque chose d'important dans votre mémoire: