YouTube hinterlässt Fehlinformationen in den Suchergebnissen, empfiehlt diese jedoch nicht mehr



Die Erde ist tatsächlich flach, Amerikaner sind noch nie auf dem Mond gelandet und eine geheime Regierung regiert die Welt - die beliebtesten Verschwörungstheorien sind auf YouTube sehr leicht zu finden. Aufgrund der Filterblase, des psychologischen Konservatismus , der selektiven Wahrnehmung und der Wirkung der Illusion der Wahrheit durchsucht eine Person das Internet nach Informationen, die ihren Standpunkt bestätigen, und neigt dazu, neue Informationen zu ignorieren, wenn sie etablierten Überzeugungen widersprechen.

YouTube beabsichtigt, diese unangenehme Eigenschaft der menschlichen Natur zu überwinden. Am Freitag gab der größte Videodienst im Internet bekannt, dass er Videos mit Verschwörungstheorien von der Liste der Empfehlungsvideos ausschließen will.

YouTube wird seit vielen Jahren dafür kritisiert , Videos zu empfehlen, die Fehlinformationen verbreiten. Jetzt ist die Politik etwas entspannt. Am 25. Januar 2019 kündigte YouTube auf dem offiziellen Blog an, keine Videos mit „Grenzinhalten“ mehr anzubieten und „Nutzer auf schädliche Weise falsch zu informieren“, auch wenn das Video selbst den Empfehlungen der Community nicht widerspricht und nicht gelöscht werden kann.

Laut YouTube hat eine Richtlinienänderung weniger als 1% aller Videoclips auf der Plattform betroffen. Aber mit Milliarden von Einträgen in der YouTube-Bibliothek ist es wirklich viel.

In jüngster Zeit wurden Facebook, YouTube, Twitter und andere UGC-Plattformen ernsthaft dafür kritisiert, dass sie dazu beitragen, Fehlinformationen, Fälschungen, Verschwörungstheorien und andere virale Informationen zu verbreiten, die sich naturgemäß leicht in sozialen Netzwerken verbreiten lassen. Es gibt eine zweifache Situation. Einerseits verstößt die Zensur von Benutzerinhalten gegen die grundlegenden Menschenrechte. Auf der anderen Seite verbietet niemand den Menschen, ihre Meinung zu äußern, aber die Plattform hat auch das Recht, ihre eigenen Regeln anzuwenden und zumindest nicht bei der Verteilung von Fälschungen zu helfen, selbst wenn sie einen Gewinn bringt (Anzahl der Aufrufe, Menge der Werbung usw.).

Social Media ist gezwungen, auf diese Anforderungen zu hören. Zum Beispiel hat Facebook kürzlich Hunderte von Konten von Mitarbeitern der Sputnik-Agentur gesperrt , die in den baltischen Ländern und in Osteuropa Propaganda betrieben. Ähnliche Maßnahmen werden von Twitter ergriffen, indem Konten gelöscht werden, die zur koordinierten Manipulation der öffentlichen Meinung verwendet werden .

Die Hauptbeschwerde gegen Social Media ist, dass sie zweifelhafte Inhalte empfehlen, auch wenn Benutzer kein klares Interesse daran zeigen. Zum Beispiel hat YouTube kürzlich ohne ersichtlichen Grund Millionen von Nutzern empfohlen, sich die Videoaufzeichnung des Angriffs vom 11. September anzusehen. Er wird auch beschuldigt, die politische Spaltung im Land vergrößert zu haben und bereits voreingenommene Zuschauer zu extremeren Gesichtspunkten zu drängen. Studien zeigen, dass die wahren Algorithmen von YouTube einer Person zu einem Thema, an dem sie zuvor interessiert war, systematisch immer extremere Videos empfehlen . Wahrscheinlich sind die Empfehlungsalgorithmen im Verlauf des maschinellen Lernens zu diesem Verhalten gekommen - vielleicht ist dies eine wirklich effektive Strategie, die die Anzahl der Ansichten maximiert. Aber so wurde YouTube "eines der mächtigsten Werkzeuge zur Radikalisierung der Gesellschaft im 21. Jahrhundert" , sagen Kritiker .

Die neue Richtlinie ist auch das jüngste Beispiel für den aggressiveren Ansatz von YouTube in Bezug auf Inhalte, den viele als unangenehm empfinden, auch wenn er nicht gegen die Community-Richtlinien verstößt.

Ende 2017 hat YouTube „kontroverse religiöse oder suprematistische“ Inhalte in einen „begrenzten Zustand“ versetzt, in dem Videos nicht durch Anzeigen monetarisiert und Kommentare und Likes deaktiviert werden. Einige Videos werden von einer kurzen Nachricht begleitet, dass sie unangemessen oder anstößig sein können.

YouTube nannte drei Beispiele für Videos, die nicht mehr empfohlen werden:

  • die ein falsches Wundermittel für eine schwere Krankheit fördern;
  • die behaupten, dass die Erde flach ist;
  • Inhalte, die offen falsche Aussagen über historische Ereignisse wie die Anschläge vom 11. September machen.

Dies reicht natürlich nicht aus, um Fehlinformationen vollständig zu filtern, aber die Zensur muss vorsichtig sein, da es sich um eine zweischneidige Waffe handelt.

YouTube wird Nutzern, die diesen Kanal ausdrücklich abonniert haben, weiterhin zweifelhafte Videos empfehlen und Fehlinformationen in den Suchergebnissen hinterlassen: „Wir glauben, dass diese Änderung ein Gleichgewicht zwischen der Wahrung der Meinungsfreiheit und der Achtung unserer Verantwortung gegenüber Nutzern herstellt“, schrieb YouTube in einem offiziellen Artikel Blog-Beitrag.

Source: https://habr.com/ru/post/de437572/


All Articles