YouTube laissera des informations erronées dans les résultats de recherche, mais ne le recommandera plus



La terre est en fait plate, les Américains n'ont jamais atterri sur la lune et un gouvernement secret règne sur le monde - les théories du complot les plus populaires sont très faciles à trouver sur YouTube. En raison de la bulle de filtres , du conservatisme psychologique , de la perception sélective et de l' effet de l'illusion de la vérité, une personne recherche sur Internet des informations qui confirment son point de vue et est encline à ignorer de nouvelles informations si elles contredisent les croyances établies.

YouTube a l'intention de surmonter cette propriété désagréable de la nature humaine. Vendredi, le plus grand service de vidéo sur Internet a annoncé qu'il prévoyait d'exclure de la liste des recommandations des vidéos avec des théories du complot.

YouTube est critiqué depuis de nombreuses années pour avoir recommandé des vidéos diffusant de la désinformation. Maintenant, la politique est quelque peu assouplie. Le 25 janvier 2019, sur le blog officiel, YouTube a annoncé qu'il ne proposerait plus de vidéos avec du «contenu frontière» et que «des utilisateurs mal informés de manière nuisible», même si la vidéo elle-même ne contredit pas les recommandations de la communauté et ne peut pas être supprimée.

YouTube indique qu'un changement de politique a affecté moins de 1% de tous les clips vidéo sur la plate-forme. Mais avec des milliards d'entrées dans la bibliothèque YouTube, c'est vraiment beaucoup.

Récemment, Facebook, YouTube, Twitter et d'autres plates-formes UGC ont été sérieusement critiqués pour avoir contribué à diffuser des informations erronées, des contrefaçons, des théories du complot et d'autres informations virales, qui par nature sont facilement diffusées sur les réseaux sociaux. La situation est double. D'une part, la censure du contenu des utilisateurs est contraire aux droits humains fondamentaux. En revanche, personne n'interdit aux gens d'exprimer leurs opinions, mais la plateforme a également le droit d'appliquer ses propres règles et au moins de ne pas aider à la distribution de contrefaçons, même si cela lui apporte un profit (nombre de vues, quantité de publicité, etc.).

Les médias sociaux sont obligés d'écouter ces exigences. Par exemple, Facebook a récemment interdit des centaines de comptes d'employés de l'agence Spoutnik qui faisaient de la propagande dans les pays baltes et en Europe de l'Est. Des actions similaires sont prises par Twitter, supprimant les comptes utilisés pour la manipulation coordonnée de l'opinion publique .

La principale plainte contre les médias sociaux est qu'ils recommandent un contenu douteux même si les utilisateurs ne manifestent pas clairement leur intérêt. Par exemple, récemment, YouTube, sans raison apparente, a recommandé à des millions d'utilisateurs de regarder l'enregistrement vidéo de l'attaque du 11 septembre. Il est également accusé d'élargir la scission politique dans le pays, poussant les téléspectateurs déjà biaisés à des points de vue plus extrêmes. Des études montrent que les vrais algorithmes de YouTube recommandent systématiquement des vidéos de plus en plus extrêmes à une personne sur un sujet qui l'intéressait auparavant. Probablement, les algorithmes de recommandations au cours de l'apprentissage automatique sont venus à ce comportement - c'est peut-être une stratégie vraiment efficace qui maximise le nombre de vues. Mais c'est ainsi que YouTube est devenu "l'un des outils les plus puissants pour radicaliser la société au 21e siècle" , affirment les critiques .

La nouvelle politique est également le dernier exemple de l'approche plus agressive de YouTube à l'égard du contenu, que beaucoup considèrent désagréable, même si elle ne viole pas les règles de la communauté .

Fin 2017, YouTube a déplacé le contenu «controversé religieux ou suprématiste» vers un «état limité» dans lequel les vidéos ne sont pas monétisées par les publicités, et les commentaires et les likes sont désactivés. Certaines vidéos sont accompagnées d'un court message indiquant qu'elles peuvent être inappropriées ou offensantes.

YouTube a cité trois exemples de vidéos qu'il ne recommandera plus:

  • qui font la promotion d'un faux remède miracle pour une maladie grave;
  • qui prétendent que la terre est plate;
  • contenu qui fait des déclarations franchement fausses sur des événements historiques tels que les attentats du 11 septembre.

Bien sûr, cela ne suffit pas pour filtrer complètement la désinformation, mais la censure doit être prudente car c'est une arme à double tranchant.

YouTube continuera à recommander des vidéos douteuses aux utilisateurs qui se sont explicitement abonnés à cette chaîne et laissera des informations erronées dans les résultats de recherche: "Nous pensons que ce changement établit un équilibre entre le maintien de la liberté d'expression et le respect de notre responsabilité envers les utilisateurs", a écrit YouTube dans un communiqué officiel. article de blog.

Source: https://habr.com/ru/post/fr437572/


All Articles