Wir sind bereits daran gewöhnt, dass soziale Netzwerke
Wahlen und Politik in westlichen Ländern beeinflussen. Aber sie können Menschen das Leben kosten, und es gibt noch keine Lösung.
Im März 2019 wurden
in zwei Moscheen in Neuseeland 49 Menschen getötet. Die Organisatoren des Massakers haben es in sozialen Netzwerken ausgestrahlt, um die Aufmerksamkeit möglichst vieler Menschen auf sich zu ziehen. Patrick Crusius war unter den Zuschauern auf der anderen Seite des Bildschirms, der unter dem Eindruck dessen, was
er sah, am 4. August im Walmart-Kaufhaus in El Paso
Massenerschießungen durchführte , bei denen 21 Menschen getötet und 26 weitere verletzt wurden. Die Ermittler behaupten, der Verdächtige habe
Informationen über einige Monate vor der Tragödie veröffentlicht
seine Absichten in
Bezug auf eine der extremistischen Ressourcen im Netzwerk, wo er unter anderem die Unterstützung eines Kämpfers aus Neuseeland zum Ausdruck brachte. Nach einer Untersuchung der Ursachen der Katastrophe wandten sich Frankreich und Neuseeland an andere Länder und Technologieunternehmen, um Technologien zu finden, die die Verbreitung solcher Inhalte verhindern würden. Die Initiative wurde
von 17 Ländern, der EU und 8 großen Technologieunternehmen, darunter Google und Facebook, unterstützt.
Im April 2019 wurden bei einer
Reihe von Explosionen in Sri Lanka mehr als 200 Menschen getötet. Die Behörden haben Facebook vor den möglichen Folgen einer Verschärfung der Gewalt in den sozialen Medien
gewarnt . Es wurde kein Verständnis erzielt, und aufgrund menschlicher Verluste wurde beschlossen,
den Zugang zu einer Reihe von sozialen Netzwerken und Instant Messenger, einschließlich Facebook und WhatsApp, zu
blockieren . Nach Angaben der Behörden könnte die Verbreitung von Fehlinformationen über die Ereignisse zu einer Eskalation der Gewalt im Land führen.
Das Blockieren von sozialen Netzwerken und Instant Messenger bei Gewaltausbrüchen tritt häufiger auf. Beispielsweise löste die Verbreitung von WhatsApp-
Entführungsgerüchten im Sommer 2018 in Indien eine Reihe von Zusammenstößen aus. Und im Februar 2019 verstärkten die Fehlinformationen, die sich auf Facebook, Instagram und WhatsApp verbreiteten,
die Spannungen zwischen Indien und Pakistan. Jetzt befürchten Beamte in Indien, dass die Verbreitung gefälschter Nachrichten über Facebook die Situation während der bevorstehenden Wahlen befeuern könnte. Online führt zu Gewalt in stärker entwickelten Ländern: in
Mexiko , den
USA und
Deutschland .
Wenn Regierungen soziale Netzwerke blockieren, wird dies einerseits als Versuch angesehen, die Meinungsfreiheit einzuschränken. Andererseits zeigen die oben genannten Fälle, dass die Trennung sozialer Netzwerke das einzige Instrument für Länder ist, um Gewalt und Todesfälle zu verhindern. Wie haben sich soziale Netzwerke in ein aggressives Umfeld verwandelt und gibt es eine Möglichkeit, die Gewalt zu stoppen, ohne das Internet auszuschalten?
Von ethnischen Säuberungen bis hin zu Terroranschlägen
UN- Studien zeigten, dass Facebook eine „entscheidende Rolle“ beim Anstieg der anti-muslimischen Stimmung in Myanmar im benachbarten Sri Lanka spielte. Die Verbreitung von Gerüchten in sozialen Netzwerken
führte zu Opfern in der Bevölkerung: Die anti-muslimische Hysterie in den sozialen Netzwerken von Myanmar führte zu einer umfassenden ethnischen Säuberung. Regierungstruppen nutzen Facebook seit mehreren Jahren, um
sich gegen die ethnische Gruppe der Rohingya im Land zu verbreiten.
Laut einem Bericht von Ärzte ohne Grenzen wurden in der realen Welt mindestens 6.700 Menschen Opfer. Im November 2018 veröffentlichte Facebook
eine unabhängige Bewertung der Ereignisse in Myanmar und
gab zu, dass das Unternehmen nicht genug getan hat, um zu verhindern, dass seine Plattform zu Meinungsverschiedenheiten und Anstiftung zu Gewalt im wirklichen Leben führt.
Ein Jahr vor den Terroranschlägen in Sri Lanka provozierten falsche Gerüchte in sozialen Netzwerken die Buddhisten, sich gegen Muslime auszusprechen: Der Newsfeed Facebook spielte ebenfalls eine
fatale Rolle . Gleichzeitig schätzt die Regierung des Landes soziale Netzwerke als Beitrag zum Aufbau der Demokratie nach vielen Jahren des Bürgerkriegs, so dass ihre Kritik an der Anstiftung zu Rassenhass als objektiv angesehen werden kann. Vertreter von Facebook reagierten nicht auf Kritik an der Regierung, bis der Zugang zu ihren Ressourcen im Land blockiert wurde. Erst danach versprach das amerikanische Unternehmen, mehr Moderatoren einzustellen und die Interaktion mit den lokalen Behörden zu verbessern.
Todesalgorithmen
Die überwiegende Mehrheit der Herausgeber und Vertreiber extremer Inhalte im Internet begeht im wirklichen Leben keine Hassverbrechen. Aber die Hassverbrechen, die auftreten, hängen oft mit den Aktivitäten von Online-Anstiftern zusammen. Das von russischen Wissenschaftlern berechnete mathematische Modell des Sozialverhaltens
zeigt, dass es einen Wendepunkt gibt, nach dem einige Menschen von der verzerrten Version der vom Internet geschaffenen Realität so besessen sind, dass sie zu handeln beginnt.
Eine Studie der Universität Warwick in Großbritannien
ergab einen Zusammenhang zwischen Angriffen auf Flüchtlinge in Deutschland zwischen 2015 und 2017 mit Gebieten mit hoher Facebook-Popularität und der Verbreitung der
Beiträge der rechtsextremen populistischen Partei „Alternative für Deutschland“ (AfD)
gegen Flüchtlinge . Von 3335 Angriffen ereigneten sich 3171 in Gemeinden mit hoher Online-Bedrohungsaktivität. In Chemnitz führten falsche Gerüchte über Mörder-Migranten auf Twitter und Facebook
zu Massendemonstrationen , an denen im August 2018 6.000 Teilnehmer teilnahmen.
Der Zugriff auf Technologien und Plattformen, die virale Inhalte bereitstellen, ist nicht so schwierig. Eine Studie des Massachusetts Institute of Technology (MIT) mit mehr als 126.000 Posts von etwa 3 Millionen Menschen
zeigte, dass sich Lügen in sozialen Medien viel schneller und umfassender verbreiten als die Wahrheit in allen Kategorien von Informationen. Der Einfluss sozialer Netzwerke wird durch die sogenannten ideologischen Blasen verstärkt: Um die Aufmerksamkeit der Menschen auf ihren Websites so lange wie möglich zu erhalten, verwenden Unternehmen wie Facebook und YouTube Algorithmen, die dem Benutzer die potenziell interessantesten Beiträge empfehlen. Wenn das System die Beliebtheit eines Videos erfasst, verteilt es es mehr. Infolgedessen erhält der Inhalt mehr Aufrufe und YouTube erhält mehr Geld, da die Nutzer mehr Zeit mit der Ressource verbringen und mehr Werbung anzeigen.
Benutzer in ideologischen Blasen sehen eine Version der Welt, in der ihre Ansichten niemals bestritten werden und keine gegensätzlichen Meinungen gefunden werden. Der Betrachter von YouTube fällt in die Bedingungen, die im Modell der "
Informationskonfrontation " russischer Soziologen berücksichtigt werden: Der Nutzer stößt nicht auf einen Reizstoff in Form alternativer Sichtweisen. Dies schafft einen äußerst engen und loyalen Kreis von Anhängern, die bereit sind, eine radikalere Agenda nachzuahmen, wenn dies geschieht. Blasen wie diese bringen „Wendepunkte“, an denen Gewalt ausläuft.
Ingenieur Guillaume Chaslo, der drei Jahre lang an den Empfehlungssystemen von YouTube gearbeitet hat, hat 2016 die
Algotransparency- Website erstellt, auf der er versucht, Video-Hosting-Algorithmen zu
entschlüsseln : Wie ein Inhalt im Vergleich zu anderen beworben wird. Am Tag vor den
Dreharbeiten in der Pittsburgh Synagogue im Jahr 2018 verzeichnete Algotransparency, dass der YouTube-Algorithmus ein Video des Verschwörungstherapeuten David Ike verbreitet, in dem er den jüdischen
Milliardär , Philanthrop und geliebten Ziel des rechtsextremen George Soros beschuldigt, „politische Ereignisse in der Welt zu manipulieren“. Das Video hatte weniger als 1000 Aufrufe, als der Algorithmus damit begann, es zu bewerben, jetzt hat es mehr als 70.000. Dies beweist keinen kausalen Zusammenhang zwischen dem Video und den Aufnahmen, vermittelt jedoch ein Verständnis dafür, wie provokative Videos gefunden und ihre Verbreitung bekämpft werden können.
Online-Gewalt
Ein weiteres Problem im Zusammenhang mit Gewalt und Netzwerkmedien ist die unkontrollierte Verbreitung von Videos mit Massakern und Selbstmorden. Vor
vier Jahren wurde ein Video, das unabhängig vom Mörder zweier Reporter in Virginia gedreht wurde, auf Facebook und Twitter verbreitet. Vor drei Jahren wurden
Massenerschießungen in Dallas viral. Social Media-Plattformen können ein globales Publikum für Menschen bieten, die sich selbst oder anderen ernsthaften Schaden zufügen möchten. Darauf hat Facebook wahrscheinlich nicht gesetzt, als Facebook Live vor einigen
Jahren der Öffentlichkeit vorgestellt
wurde .
Aufgrund der Tatsache, dass das Streamen von Videos im Internet ein relativ neues Tool ist, in das Facebook, Twitter, Amazon und andere Unternehmen weiterhin investieren, ist unklar, was bei der Ausstrahlung von Terroranschlägen in der Luft zu tun ist. Selbst wenn Facebook gewalttätige Inhalte schnell blockiert, werden solche Vorfälle sofort bekannt und veranlassen die Nutzer, über Google und andere Suchmaschinen nach Originalvideos zu suchen.
Der oben erwähnte Angriff in Neuseeland, bei dem 50 Menschen getötet wurden,
wurde live auf Facebook übertragen, erneut auf YouTube veröffentlicht und auf Reddit diskutiert, bevor eine dieser Plattformen reagierte. Viele Benutzer schaffen es, es in ihren Konten zu platzieren, was nicht nur automatisch, sondern auch unter Einbeziehung von Moderatoren eine zweite Prüfung erfordert, um alle Kopien zu löschen. Zum Beispiel fand CNN fast zwei Monate nach der Tragödie von Christchurch Kopien der Massakersendungen, die auf vielen Websites
noch verfügbar sind.
Rettung des Ertrinkens
In den letzten Jahren ist die Deaktivierung des Internets nach Protesten oder anderen regierungsfeindlichen Aktivitäten weltweit, insbesondere in Asien und Afrika, immer
häufiger geworden.
Experten für Internetpolitik bezweifeln jedoch, dass Blockaden Terroristen daran hindern, ihre Absichten zu erfüllen. Der Forscher der Stanford University, Jan Ridgak, stellte
fest, dass das Blockieren von sozialen Netzwerken und Websites in Indien mit einer
Eskalation von Gewalt einherging ... Das Blockieren von gefälschten Nachrichten und Gerüchten über alternative Kanäle ist schwieriger zu widerlegen, da keine schnelle Massen-Internetkommunikation vorliegt.
In jedem Fall sind Verbote nur bis zu einem gewissen Grad wirksam, da Benutzer Anwendungen verwenden können, die als VPNs oder virtuelle private Netzwerke bezeichnet werden, um Blockierungen oder Instant Messenger zu umgehen, die über WLAN mit umgebenden Geräten kommunizieren, wenn das Internet ausgeschaltet ist.
Im März forderte die indische Parlamentskommission Joel Kaplan, den Leiter der globalen Facebook-Politik,
auf, die Kontrolle über WhatsApp und Instagram
zu verschärfen. Unternehmen mussten die Beiträge der Benutzer überprüfen, um sicherzustellen, dass sie nichts Illegales enthalten. Dieser Ansatz ist aus zwei Gründen nicht eindeutig: Er führt Unternehmen wie WhatsApp, die End-to-End-Verschlüsselung verwenden, dazu, ihre Plattformen radikal zu ändern, und wirft andererseits Bedenken hinsichtlich der Vertraulichkeit und der übermäßigen staatlichen Kontrolle auf.
Manuelle Steuerung
In China kämpft eine sehr reale
Armee von Zensoren mit Hunderten von Millionen Nutzern gegen unangemessene Social-Media-Inhalte. Forscher der
Harvard University bewerteten ihre Zahl mit beispiellosen Zehntausenden von Teilnehmern, darunter Regierungsblogger und die sogenannte Internetpolizei, die Inhalte aus Netzwerkressourcen filtern. Dank der sich schnell entwickelnden chinesischen Anwendungen reicht der Einfluss von Zensoren weit über die Grenzen des Reiches der Mitte hinaus: Facebook-Gründer Mark Zuckerberg
beschuldigte das soziale Netzwerk von TikTok, Inhalte im Zusammenhang mit Protesten in Hongkong, sogar in den USA, blockiert zu haben.
Befindet sich gefährlicher Inhalt außerhalb des Himmlischen Reiches, wird die
Große Waffe verwendet , die die Arbeit unerwünschter Ressourcen verlangsamt. Laut Pavel Durov führte die chinesische Regierung beispielsweise am 13. Juni einen DDoS-Angriff durch, um das Telegramm zu verlangsamen, als Hunderttausende von Hongkonger Bürgern das Regierungsgebäude umstellten, um
gegen die Gesetzesvorlage zu
protestieren , mit der Menschen zur Verhandlung an das chinesische Festland ausgeliefert werden können.
Aber selbst ein so leistungsfähiges System und eine Armee von Moderatoren sind nicht in der Lage, jede heruntergeladene Datei in angemessener Zeit manuell anzuzeigen, und das Wachstum der Streaming-Übertragung bringt neue Schwierigkeiten mit sich, grausame Inhalte zu erkennen, da das Video gezeigt werden kann, bevor der Zensor weiß, dass es gesendet wurde.
Automatisierte Technologien sind alles andere als perfekt und bieten die einzige Möglichkeit, die Wiederholung nur der ungeheuerlichsten Inhalte im Web zu kennzeichnen und zu verhindern. Laut YouTube-Statistiken werden nur
73% der automatisch getaggten Videos gelöscht, bevor mindestens eine Person sie sieht.
Sowohl Facebook als auch Google haben seit vielen Jahren automatisierte Tools entwickelt und implementiert, mit denen Fotos, Videos und Texte erkannt und gelöscht werden können, die gegen ihre Richtlinien verstoßen. Facebook verwendet beispielsweise die
PhotoDNA von Microsoft, um Kinderpornografie zu erkennen. Google hat eine eigene
Version dieser Open Source-Software entwickelt. Diese Unternehmen haben auch in Technologie investiert, um extremistische Botschaften zu erkennen, indem sie sich einer Gruppe namens
Global Internet Forum on Counterterrorism angeschlossen haben , um Informationen über bekannte terroristische Inhalte auszutauschen. Für den erkannten illegalen Inhalt werden digitale Signaturen generiert, die es ermöglichen, ihn bei wiederholtem Download zu erkennen (und zu verbieten).
Die automatische Moderation wird jedoch viel schwieriger, wenn es nicht um Fotos und Videos geht, sondern um das Streamen von Videos. Wie Googles General Counsel Kent Walker 2017 in seinem
Blog schrieb: "Maschinen können helfen, problematische Videos zu identifizieren, aber der menschliche Faktor spielt immer noch eine entscheidende Rolle bei der Nuance der Entscheidung über die Grenze zwischen Gewaltpropaganda und religiösen Äußerungen." Technologieunternehmen
waren noch nicht in der Lage, eine effektive KI
zu erstellen, um solche Inhalte proaktiv zu blockieren, obwohl dies die reichste Branche der Welt ist. Daher haben Facebook und YouTube Zensurteams, die sich Videos auf der ganzen Welt ansehen und gleichzeitig zunehmend mit dem Problem des Datenvolumens konfrontiert sind. Vielleicht sind sowohl YouTube als auch Facebook zu groß geworden, um moderiert zu werden.
Es scheint, dass Mark Zuckerberg selbst nicht sicher ist, welche Möglichkeiten automatisierte Systeme haben: Er ist bereit
, die Kontrolle über notleidende Vermögenswerte
auf den Staat zu übertragen , einschließlich „Killer“ -Inhalten und politischer Werbung. „Bis vor kurzem wurde das Internet in fast allen Ländern außerhalb Chinas von amerikanischen Plattformen definiert, auf denen die Werte der Meinungsfreiheit stark sind. Es gibt keine Garantie dafür, dass diese Werte gewinnen werden “, sagte der Milliardär in einer Rede an der Georgetown University. Aber gibt es eine Garantie dafür, dass wir im Falle einer Übertragung der Kontrolle über den Inhalt an die Regierung eines Landes keine Zensur des globalen Netzwerks gemäß dem chinesischen Szenario erhalten? Ist das die Art von Internet, die wir wollen, Mark?
Nikita Tsaplin
UFO Pflege Minute
Dieses Material kann zu widersprüchlichen Gefühlen führen. Aktualisieren Sie daher vor dem Schreiben eines Kommentars etwas Wichtiges in Ihrem Gedächtnis: