C'est le genre d'Internet que nous voulons: comment les médias sociaux sont devenus une arme mortelle

Nous sommes déjà habitués au fait que les réseaux sociaux influencent les élections et la politique dans les pays occidentaux. Mais ils peuvent coûter la vie aux gens, et il n'y a pas encore de solution.

image

En mars 2019, 49 personnes ont Ă©tĂ© tuĂ©es dans deux mosquĂ©es en Nouvelle-ZĂ©lande . Les organisateurs du massacre l'ont diffusĂ© sur les rĂ©seaux sociaux afin d'attirer l'attention du plus grand nombre possible. Patrick Crusius faisait partie des tĂ©lĂ©spectateurs de l'autre cĂŽtĂ© de l'Ă©cran qui, sous l'impression de ce qu'il a vu, ont organisĂ© une fusillade de masse dans le grand magasin Walmart Ă  El Paso le 4 aoĂ»t, tuant 21 personnes et en blessant 26 autres. Les enquĂȘteurs affirment que le suspect a publiĂ© des informations plusieurs mois avant la tragĂ©die. ses intentions sur l'une des ressources extrĂ©mistes du rĂ©seau, oĂč il a exprimĂ©, entre autres, son soutien Ă  un combattant nĂ©o-zĂ©landais. À la suite d'une enquĂȘte sur les causes de la catastrophe, la France et la Nouvelle-ZĂ©lande se sont tournĂ©es vers d'autres pays et sociĂ©tĂ©s technologiques pour trouver des technologies qui empĂȘcheraient la diffusion de tels contenus. L'initiative a Ă©tĂ© soutenue par 17 pays, l'UE et 8 grandes entreprises technologiques, dont Google et Facebook.

En avril 2019, une série d'explosions au Sri Lanka a tué plus de 200 personnes. Les autorités ont déclaré avoir averti Facebook des conséquences potentielles de l'aggravation de la violence sur les réseaux sociaux. La compréhension n'a pas été atteinte et à la suite de victimes humaines, il a été décidé de bloquer l'accÚs à un certain nombre de réseaux sociaux et de messageries instantanées, dont Facebook et WhatsApp. Selon les autorités, la diffusion d'informations erronées sur les événements pourrait provoquer une escalade de la violence dans le pays.

Le blocage des rĂ©seaux sociaux et des messageries instantanĂ©es lors des flambĂ©es de violence se produit plus souvent. Par exemple, Ă  l'Ă©tĂ© 2018, la propagation virale des rumeurs d'enlĂšvement de WhatsApp a provoquĂ© une sĂ©rie d'affrontements en Inde. Et en fĂ©vrier 2019, la dĂ©sinformation qui s'est rĂ©pandue sur Facebook, Instagram et WhatsApp a accru les tensions entre l'Inde et le Pakistan. Maintenant, les responsables en Inde craignent que la diffusion de fausses nouvelles via Facebook ne puisse alimenter la situation lors des prochaines Ă©lections. En ligne engendre la violence dans les pays plus dĂ©veloppĂ©s: au Mexique , aux États-Unis et en Allemagne .

D'une part, lorsque les gouvernements bloquent les réseaux sociaux, cela est perçu comme une tentative de restreindre la liberté d'expression. Mais d'un autre cÎté, les cas susmentionnés montrent que la déconnexion des réseaux sociaux est le seul outil pour les pays pour prévenir la violence et les pertes de vie. Comment les réseaux sociaux sont-ils devenus un environnement agressif et existe-t-il un moyen de mettre fin à la violence sans désactiver Internet?

Du nettoyage ethnique aux attaques terroristes


Des Ă©tudes de l' ONU ont montrĂ© que Facebook a jouĂ© un «rĂŽle dĂ©terminant» dans la montĂ©e du sentiment anti-musulman au Myanmar, au Sri Lanka voisin. La propagation des rumeurs dans les rĂ©seaux sociaux a fait des victimes parmi la population: l'hystĂ©rie anti-musulmane dans les rĂ©seaux sociaux du Myanmar s'est transformĂ©e en un nettoyage ethnique Ă  grande Ă©chelle. Les forces gouvernementales utilisent Facebook depuis plusieurs annĂ©es pour se propager contre l'ethnie rohingya du pays. Au moins 6 700 personnes sont devenues des victimes dans le monde rĂ©el, selon un rapport de MĂ©decins sans frontiĂšres. En novembre 2018, Facebook a publiĂ© une Ă©valuation indĂ©pendante de ce qui se passait au Myanmar et a admis que la sociĂ©tĂ© n'avait pas fait assez pour empĂȘcher sa plate-forme d'inciter aux dĂ©saccords et Ă  l'incitation Ă  la violence dans la vie rĂ©elle.

Un an avant les attentats terroristes au Sri Lanka, de fausses rumeurs dans les rĂ©seaux sociaux ont incitĂ© les bouddhistes Ă  dĂ©noncer les musulmans: le fil d'actualitĂ© Facebook a Ă©galement jouĂ© un rĂŽle fatal . Dans le mĂȘme temps, le gouvernement du pays apprĂ©cie les rĂ©seaux sociaux pour aider Ă  Ă©tablir la dĂ©mocratie aprĂšs de nombreuses annĂ©es de guerre civile, de sorte que leurs critiques pour avoir incitĂ© Ă  la haine raciale peuvent ĂȘtre considĂ©rĂ©es comme objectives. Les reprĂ©sentants de Facebook n'ont rĂ©pondu aux critiques du gouvernement que lorsque l'accĂšs Ă  leurs ressources a Ă©tĂ© bloquĂ© dans le pays. Ce n'est qu'aprĂšs cela que l'entreprise amĂ©ricaine a promis d'embaucher plus de modĂ©rateurs et d'amĂ©liorer l'interaction avec les autoritĂ©s locales.

Algorithmes de mort


La grande majoritĂ© des Ă©diteurs et des distributeurs de contenu extrĂȘme sur le Web ne commettent pas de crimes de haine dans la vie rĂ©elle. Mais les crimes de haine qui se produisent sont souvent liĂ©s aux activitĂ©s des instigateurs en ligne. Le modĂšle mathĂ©matique du comportement social calculĂ© par les scientifiques russes montre qu'il y a un tournant, aprĂšs lequel certaines personnes deviennent tellement obsĂ©dĂ©es par la version dĂ©formĂ©e de la rĂ©alitĂ© crĂ©Ă©e par Internet qu'elle commence Ă  agir.

Une Ă©tude de l'UniversitĂ© de Warwick en Grande-Bretagne a rĂ©vĂ©lĂ© une corrĂ©lation entre les attaques contre les rĂ©fugiĂ©s en Allemagne entre 2015 et 2017 avec des zones Ă  forte popularitĂ© sur Facebook et la diffusion des messages du parti populiste d'extrĂȘme droite «Alternative pour l'Allemagne» (AfD) contre les rĂ©fugiĂ©s . Sur 3335 attaques, 3171 se sont produites dans des municipalitĂ©s Ă  forte activitĂ© de menace en ligne. À Chemnitz, en Allemagne, de fausses rumeurs concernant des tueurs de migrants sur Twitter et Facebook ont ​​conduit Ă  des manifestations de masse , rassemblant 6000 participants en aoĂ»t 2018.

Accéder aux technologies et aux plates-formes qui fournissent du contenu viral n'est pas si difficile. Une étude du Massachusetts Institute of Technology (MIT) de plus de 126 000 articles rédigés par environ 3 millions de personnes a montré que les mensonges se propagent sur les réseaux sociaux beaucoup plus rapidement et plus largement que la vérité dans toutes les catégories d'informations. L'influence des réseaux sociaux est renforcée par les soi-disant bulles idéologiques: pour garder l'attention des gens sur leurs sites le plus longtemps possible, des entreprises comme Facebook et YouTube utilisent des algorithmes qui recommandent les publications potentiellement les plus intéressantes à l'utilisateur. Si le systÚme capte la popularité d'une vidéo particuliÚre, il la distribue davantage et, par conséquent, le contenu reçoit plus de vues et YouTube - plus d'argent, car les utilisateurs passent plus de temps sur la ressource et voient plus de publicité.

Les utilisateurs dans des bulles idĂ©ologiques voient une version du monde dans laquelle leurs opinions ne sont jamais contestĂ©es et les opinions opposĂ©es ne sont pas trouvĂ©es. Le spectateur de YouTube tombe dans les conditions envisagĂ©es dans le modĂšle de " confrontation informationnelle " des sociologues russes: l'utilisateur ne rencontre pas d'irritant sous la forme de points de vue alternatifs. Cela crĂ©e un cercle extrĂȘmement Ă©troit et fidĂšle d'adhĂ©rents qui sont prĂȘts Ă  imiter un programme plus radical s'il se produit. Des bulles comme celles-ci apportent des «points de basculement» dans lesquels la violence se rĂ©pand.

L'ingĂ©nieur Guillaume Chaslo, qui a travaillĂ© sur les systĂšmes de recommandation de YouTube pendant trois ans, a crĂ©Ă© le site Web Algotransparency en 2016, oĂč il tente de dĂ©mĂȘler les algorithmes d'hĂ©bergement vidĂ©o: comment un contenu est promu par rapport aux autres. La veille du tournage Ă  la synagogue de Pittsburgh en 2018, Algotransparency a enregistrĂ© que l'algorithme YouTube distribue une vidĂ©o du thĂ©rapeute du complot David Ike, dans laquelle il accuse le milliardaire juif, philanthrope et cible bien-aimĂ©e de l'extrĂȘme droite George Soros de "manipuler des Ă©vĂ©nements politiques dans le monde". La vidĂ©o avait moins de 1 000 vues, lorsque l'algorithme a commencĂ© Ă  la promouvoir, elle en compte maintenant plus de 70 000. Cela ne prouve pas une relation de cause Ă  effet entre la vidĂ©o et le tournage, mais elle permet de comprendre comment trouver des vidĂ©os provocantes et lutter contre leur distribution.

Violence en ligne


Un autre problÚme lié à la violence et aux médias de réseau est la distribution incontrÎlée de vidéos avec massacres et suicides. Il y a quatre ans , une vidéo tournée indépendamment par le tueur de deux journalistes en Virginie a été distribuée sur Facebook et Twitter; il y a trois ans, les tirs de masse à Dallas sont devenus viraux. Les plates-formes de médias sociaux peuvent offrir une audience mondiale aux personnes qui souhaitent se faire du mal ou se faire du mal. Ce n'est probablement pas ce sur quoi Facebook comptait quand il a présenté Facebook Live au public il y a plusieurs années .

Étant donnĂ© que le streaming vidĂ©o est un outil relativement nouveau sur Internet dans lequel Facebook, Twitter, Amazon et d'autres sociĂ©tĂ©s continuent d'investir, on ne sait pas quoi faire en cas de diffusion d'attaques terroristes en direct. MĂȘme si Facebook bloque rapidement le contenu violent, de tels incidents sont instantanĂ©ment connus, ce qui incite les utilisateurs Ă  rechercher des vidĂ©os originales via Google et d'autres moteurs de recherche.

L'attaque susmentionnée en Nouvelle-Zélande, qui a tué 50 personnes, a été diffusée en direct sur Facebook, republiée sur YouTube et discutée sur Reddit avant que l'une de ces plateformes ne réagisse. De nombreux utilisateurs parviennent à le placer dans leurs comptes, ce qui nécessite un deuxiÚme audit non seulement par des moyens automatiques, mais aussi avec la participation de modérateurs afin de supprimer toutes les copies. Par exemple, prÚs de deux mois aprÚs la tragédie de Christchurch, CNN a trouvé des copies des émissions du massacre toujours disponibles sur de nombreux sites.

Sauvetage de la noyade


Ces derniÚres années, la désactivation d'Internet est devenue de plus en plus courante dans le monde, en particulier en Asie et en Afrique, aprÚs des manifestations ou d'autres activités antigouvernementales.

Cependant, les experts en politique d'Internet doutent que les blocages empĂȘchent les terroristes de rĂ©aliser leurs intentions. Le chercheur de l'UniversitĂ© de Stanford, Jan Ridgak, a constatĂ© que le blocage des rĂ©seaux sociaux et des sites Web en Inde s'accompagnait d'une escalade de la violence ... Le blocage des dĂ©versements de fausses nouvelles et des rumeurs par d'autres canaux, en l'absence de communications Internet de masse rapides, il est plus difficile Ă  rĂ©futer.

Dans tous les cas, les interdictions ne sont efficaces que dans une certaine mesure, car les utilisateurs peuvent utiliser des applications appelées VPN ou réseaux privés virtuels pour contourner le blocage ou les messageries instantanées qui communiquent avec les appareils environnants via Wi-Fi si Internet est désactivé.

En mars, la commission parlementaire indienne a demandĂ© Ă  Joel Kaplan, le responsable de la politique mondiale de Facebook, de resserrer le contrĂŽle sur WhatsApp et Instagram, obligeant les entreprises Ă  vĂ©rifier les publications des utilisateurs pour s'assurer qu'elles ne contiennent rien d'illĂ©gal. Cette approche est ambiguĂ« pour deux raisons: elle conduit des sociĂ©tĂ©s telles que WhatsApp, qui utilisent le chiffrement de bout en bout, Ă  changer radicalement leurs plates-formes et, d'autre part, soulĂšve des prĂ©occupations concernant la confidentialitĂ© et le contrĂŽle excessif de l'État.

Commande manuelle


En Chine, une vĂ©ritable armĂ©e de censeurs lutte contre le contenu inappropriĂ© des mĂ©dias sociaux avec des centaines de millions d'utilisateurs. Des chercheurs de l'UniversitĂ© Harvard ont Ă©valuĂ© leur nombre Ă  des dizaines de milliers de participants sans prĂ©cĂ©dent, y compris des blogueurs gouvernementaux et la soi-disant police Internet, qui filtrent le contenu des ressources du rĂ©seau. GrĂące au dĂ©veloppement rapide des applications chinoises, l'influence des censeurs s'Ă©tend bien au-delĂ  des frontiĂšres de l'Empire du Milieu: le fondateur de Facebook Mark Zuckerberg a accusĂ© le rĂ©seau social TikTok de bloquer les contenus liĂ©s aux manifestations Ă  Hong Kong, mĂȘme aux États-Unis.

Si un contenu dangereux se trouve en dehors de l'Empire céleste, le Grand Arme à feu est utilisé , ce qui ralentit le travail des ressources répréhensibles. Par exemple, selon Pavel Durov, le gouvernement chinois a mené une attaque DDoS pour ralentir Telegram le 13 juin, lorsque des centaines de milliers de citoyens de Hong Kong ont encerclé le bùtiment du gouvernement pour protester contre le projet de loi , qui permet d'extrader les gens vers la Chine continentale pour les juger.

Mais mĂȘme un systĂšme aussi puissant et une armĂ©e de modĂ©rateurs ne peuvent pas afficher manuellement chaque fichier tĂ©lĂ©chargĂ© dans un dĂ©lai raisonnable, et la croissance de la diffusion en continu entraĂźne de nouvelles difficultĂ©s pour reconnaĂźtre le contenu cruel, car la vidĂ©o peut ĂȘtre diffusĂ©e avant que le censeur ne sache qu'il a Ă©tĂ© diffusĂ©.

Les technologies automatisĂ©es sont loin d'ĂȘtre parfaites et offrent la seule possibilitĂ© de signaler et d'empĂȘcher la rĂ©pĂ©tition du contenu le plus flagrant du Web. Selon les statistiques YouTube, seulement 73% des vidĂ©os marquĂ©es automatiquement sont supprimĂ©es avant qu'au moins une personne ne les voie.

Depuis de nombreuses annĂ©es, Facebook et Google ont dĂ©veloppĂ© et mis en Ɠuvre des outils automatisĂ©s qui peuvent dĂ©tecter et supprimer des photos, des vidĂ©os et du texte qui violent leurs politiques. Par exemple, Facebook utilise PhotoDNA de Microsoft pour dĂ©tecter la pornographie enfantine. Google a dĂ©veloppĂ© sa propre version de ce logiciel open source. Ces entreprises ont Ă©galement investi dans des technologies pour dĂ©tecter les messages extrĂ©mistes, rejoignant un groupe appelĂ© Global Internet Forum on Counterterrorism pour Ă©changer des informations sur le contenu terroriste connu. Pour le contenu illĂ©gal dĂ©tectĂ©, des signatures numĂ©riques sont gĂ©nĂ©rĂ©es qui permettent de le reconnaĂźtre lors de tĂ©lĂ©chargements rĂ©pĂ©tĂ©s (et de l'interdire).

Mais la modĂ©ration automatisĂ©e devient beaucoup plus difficile s'il ne s'agit pas de photos et de vidĂ©os, mais de la vidĂ©o en streaming. Comme l'Ă©crivait l'avocat gĂ©nĂ©ral de Google, Kent Walker sur son blog en 2017, "les voitures peuvent aider Ă  identifier les vidĂ©os problĂ©matiques, mais le facteur humain joue toujours un rĂŽle dĂ©cisif dans les nuances de la dĂ©termination de la frontiĂšre entre la propagande violente et les dĂ©clarations religieuses". Les sociĂ©tĂ©s technologiques n'ont pas encore Ă©tĂ© en mesure de crĂ©er une IA efficace pour bloquer de maniĂšre proactive un tel contenu, bien qu'il s'agisse de l'industrie la plus riche du monde. Par consĂ©quent, Facebook et YouTube ont des Ă©quipes de censeurs qui regardent des vidĂ©os dans le monde entier et sont en mĂȘme temps de plus en plus confrontĂ©es au problĂšme du volume de donnĂ©es. Peut-ĂȘtre que YouTube et Facebook sont devenus trop grands pour ĂȘtre modĂ©rĂ©s.

Il semble que Mark Zuckerberg lui-mĂȘme ne soit pas sĂ»r des capacitĂ©s des systĂšmes automatisĂ©s: il est prĂȘt Ă  transfĂ©rer le contrĂŽle des actifs en difficultĂ© Ă  l'État , y compris le contenu «tueur» et la publicitĂ© politique. «Jusqu'Ă  rĂ©cemment, Internet dans presque tous les pays en dehors de la Chine Ă©tait dĂ©fini par des plateformes amĂ©ricaines, dans lesquelles les valeurs de la libertĂ© d'expression sont fortes. Il n'y a aucune garantie que ces valeurs gagneront », a dĂ©clarĂ© le milliardaire dans un discours Ă  l'UniversitĂ© de Georgetown. Mais y a-t-il une garantie qu'en cas de transfert du contrĂŽle du contenu au gouvernement d'un pays, nous ne recevrons pas la censure du RĂ©seau mondial selon le scĂ©nario chinois? Est-ce le genre d'Internet que nous voulons, Mark?



Nikita Tsaplin

Minute de soins OVNI


Ce matériel peut provoquer des sentiments contradictoires, donc avant d'écrire un commentaire, rafraßchissez quelque chose d'important dans votre mémoire:

Comment Ă©crire un commentaire et survivre
  • N'Ă©crivez pas de commentaires offensants, ne soyez pas personnels.
  • Abstenez-vous d'un langage obscĂšne et d'un comportement toxique (mĂȘme sous une forme voilĂ©e).
  • Pour signaler des commentaires qui enfreignent les rĂšgles du site, utilisez le bouton "Signaler" (si disponible) ou le formulaire de commentaires .

Que faire si: moins de karma | compte bloqué

→ Code des auteurs Habr et habraetiket
→ Version complùte des rùgles du site

Source: https://habr.com/ru/post/fr473806/


All Articles