
Hat mein Auto Halluzinationen? Leidet der Algorithmus, der das polizeiliche Überwachungssystem in meiner Stadt steuert, unter Paranoia? Marvin, der Android-Anhalter der Galaxis, litt unter allen Dioden auf der linken Seite. Hat mein Toaster ähnliche Gefühle?
Das klingt lustig, aber nur bis wir verstehen, dass unsere Algorithmen uns immer ähnlicher werden. Je mehr wir über unser Gehirn lernen, desto mehr setzen wir dieses Wissen in die Erstellung algorithmischer Versionen von uns ein. Diese Algorithmen steuern die Geschwindigkeit von Robomobilen, bestimmen die Ziele für autonome Militärdrohnen, berechnen unsere Anfälligkeit für kommerzielle und politische Werbung, finden Seelenverwandte in Online-Diensten und bewerten die Risiken für Versicherungen und Kredite. Algorithmen werden zu einem fast vernünftigen Hintergrund für unser Leben.
Die beliebtesten Algorithmen, die heute in der Arbeit verwendet werden, sind Algorithmen mit
tiefem Lernen . Sie kopieren die Architektur des menschlichen Gehirns und bauen komplexe Informationsmodelle auf. Sie werden geschult, die umgebende Realität durch ihre Wahrnehmung zu verstehen, zu bestimmen, was wichtig ist, und zu verstehen, was daraus entsteht. Sie sehen aus wie unser Gehirn und ihr Risiko für psychische Probleme wächst.
Deep Blue, der Algorithmus, der 1997 den Schachweltmeister Garry Kasparov besiegte, setzte brutale Gewalt ein, sortierte eine Million Positionen pro Sekunde und sagte bis zu 20 Züge in der Zukunft voraus. Jeder verstand, wie es funktioniert, auch wenn er es nicht wiederholen konnte. AlphaGo, ein detaillierter Lernalgorithmus, der Lee Sedola 2016 besiegte, ist grundlegend anders. Er benutzte neuronale Netze, um sein eigenes Verständnis des Spiels zu entwickeln, das als das schwierigste aller Brettspiele angesehen wurde. AlphaGo
trainierte, indem er andere beobachtete und mit sich selbst spielte. Programmierer und Go-Spieler sind verwirrt von AlphaGos unkonventionellem Spielstil. Seine Strategie scheint zunächst ungewöhnlich. Und erst dann verstehen wir, was er vorhatte, und dann nicht zu 100%.
Um Ihnen besser zu erklären, was ich unter Reflexion verstehe, betrachten Sie Folgendes. Programme wie Deep Blue haben möglicherweise einen Fehler im Code. Sie können durch Speicherüberlauf entstehen. Sie können aufgrund einer Endlosschleife gelähmt sein oder einfach die falsche Antwort geben. Alle diese Probleme können jedoch von einem Programmierer gelöst werden, der Zugriff auf den Quellcode des Programms hat, mit dem der Algorithmus geschrieben wurde.
Algorithmen wie AlphaGo funktionieren sehr unterschiedlich. Ihre Probleme sind sehr schwer zu erkennen, wenn man nur den Programmcode betrachtet. Sie beziehen sich auf die interne Darstellung von Informationen. Diese Ansicht ist ein sich ständig verändernder mehrdimensionaler Raum, der Traumlandschaften ähnelt. Die Lösung der Probleme solcher Algorithmen erfordert weder mehr noch weniger als einen Psychotherapeuten für Algorithmen.
Nehmen Sie unbemannte Fahrzeuge. Das Robomobil, das das erste Stoppschild in der realen Welt sah, hatte bereits während des Trainings Millionen von Stoppschildern gesehen, als es eine mentale Repräsentation dieses Schildes konstruierte. Unter verschiedenen Lichtbedingungen, bei gutem und schlechtem Wetter, mit Einschusslöchern und ohne diese - Stoppschilder enthalten unglaublich viele verschiedene Informationen. Unter den meisten normalen Bedingungen erkennt der Roboter das Stoppschild. Aber nicht alle Bedingungen sind normal. Einige kürzlich durchgeführte Experimente
haben gezeigt, dass einige schwarze Aufkleber, die das Stoppschild bedecken, einen Algorithmus täuschen können, der entscheidet, dass es sich tatsächlich um ein Tempolimitzeichen auf 60 Meilen pro Stunde handelt. Der Algorithmus, der auf etwas gestoßen ist, das dem kontrastierenden Schatten eines Baumes schrecklich ähnlich ist, beginnt zu halluzinieren.
Und auf wie viele Arten hat ein Algorithmus eine Halluzination? Um dies herauszufinden, müssten wir den Algorithmus nach allen möglichen Kombinationen von Eingabedaten fragen. Dies bedeutet, dass auf unendlich viele Arten etwas schief gehen kann. Erfahrene Programmierer wissen dies seit langem und verwenden es, um das sogenannte zu erstellen gegnerische Beispiele. Die MIT LabSix-Forschungsgruppe vom MIT hat
gezeigt, dass man durch Ausgabe spezieller Bilder an den Google-Bildklassifizierungsalgorithmus und Verwendung der von ihm empfangenen Daten seine Schwachstellen identifizieren kann. Und dann können sie diese Schwächen nutzen, um den Algorithmus zu täuschen - zum Beispiel, um ihn glauben zu lassen, dass das Röntgenbild tatsächlich ein Bild von zwei Welpen ist, die im Gras spielen.
Algorithmen können auch Fehler machen, da sie manchmal Umgebungsmerkmale wahrnehmen, die mit dem Endergebnis korrelieren, obwohl sie keinen kausalen Zusammenhang damit haben. In der Welt der Algorithmen wird dies als
Umschulung bezeichnet . Wenn dies im Gehirn geschieht, nennen wir es Aberglauben.
Einer der größten algorithmischen Fehler im Moment bleibt der sogenannte. "
Parabel Google Grippe " [Vorhersage der Grippeepidemie]. Google Flu verwendete Informationen, die bei Google gesucht wurden, um die Orte und die Intensität von Grippeausbrüchen vorherzusagen. Anfangs funktionierten die Vorhersagen für die Google-Grippe gut, verschlechterten sich jedoch schließlich, bis das System schließlich doppelt so viele Fälle von Influenza vorhersagte, wie es in den US-amerikanischen Zentren für die Kontrolle von Krankheiten registriert wurde. Google Flu als algorithmischer Schamane achtete einfach nicht darauf, was gebraucht wurde.
Möglicherweise können algorithmische Pathologien korrigiert werden. In der Praxis sind Algorithmen jedoch häufig proprietäre Black Boxes, deren Aktualisierung durch die Handelsgesetze verboten ist. Katie O'Neills 2016
Weapon of Mathematical Defeat beschreibt die wahre Freak-Parade, die aus kommerziellen Algorithmen besteht, deren listige Pathologien das Leben der Menschen verdorben haben. Von besonderem Interesse sind die algorithmischen Fehler, die die Reichen und die Armen trennen. Arme Menschen haben häufiger Kreditprobleme, leben an Orten mit hoher Kriminalitätsrate und sind von anderen armen Menschen mit ähnlichen Problemen umgeben. Aus diesem Grund wählen Algorithmen diese Personen als Ziel aus, um Anzeigen zu täuschen, die sich von ihrer Verzweiflung ernähren, ihnen
Subprime- Kredite anbieten und mehr Polizisten in ihre Nachbarschaft schicken, was die Wahrscheinlichkeit erhöht, dass die Polizei sie wegen Verbrechen festhält, die mit der gleichen Häufigkeit geschehen und in reicheren Gebieten. Die vom Justizsystem verwendeten Algorithmen weisen solchen Personen langfristige Laufzeiten zu, verringern ihre Bewährungschancen, blockieren freie Stellen für sie, erhöhen die Hypothekenzinsen, erfordern hohe Versicherungsprämien und so weiter.
Dieser algorithmische Teufelskreis ist in verschachtelten Puppen versteckt, die aus Blackboxen bestehen: Blackbox-Algorithmen, die den Verarbeitungsprozess in ihren Gedanken höherer Dimensionen verbergen, auf die wir keinen Zugriff haben, sind in Blackboxen mit Eigentumsrechten an den Algorithmen versteckt. In einigen Ländern, beispielsweise in New York, hat dies zu Vorschlägen für die Verabschiedung von Gesetzen geführt, die die Überwachung der Fairness der von kommunalen Diensten verwendeten Algorithmen vorschreiben. Aber wenn wir nicht einmal kognitive Verzerrungen in uns selbst erkennen können, wie können wir dann erwarten, dass sie in unseren Algorithmen erkannt werden?
Algorithmen, die auf menschlichen Daten trainieren, erfassen unsere Verzerrungen. In einer kürzlich von Eileen Kaliskan von der Princeton University durchgeführten
Studie wurde entdeckt, dass nachrichtenbasierte Algorithmen schnell rassistische und geschlechtsspezifische Vorurteile erlangten. Wie Kaliskan bemerkte: „Viele Menschen glauben, dass Autos keine Vorurteile haben. Aber Maschinen trainieren mit menschlichen Daten. Und die Leute haben Vorurteile. “
Soziale Netzwerke sind ein Schlangennest menschlicher Vorurteile und Hasses. Algorithmen, die viel Zeit in sozialen Netzwerken verbringen, werden schnell zu blinden Fanatikern. Sie erwerben Vorurteile gegenüber Krankenschwestern und Ingenieurinnen. Sie missverstehen Themen wie Einwanderung und Minderheitenrechte. Ein bisschen mehr, und die Algorithmen werden anfangen, Menschen so unfair zu behandeln, wie Menschen miteinander in Beziehung stehen. Aber Algorithmen sind von Natur aus zu sicher in ihrer Unfehlbarkeit. Und wenn Sie sie nicht umgekehrt trainieren, haben sie keinen Grund, sich der Inkompetenz zu verdächtigen (alles ist wie bei den Menschen).
In den von mir beschriebenen Algorithmen treten psychologische Probleme aufgrund der Qualität der Daten auf, auf denen sie trainieren. Algorithmen können jedoch aufgrund ihrer internen Struktur ähnliche Probleme haben. Sie können alte Informationen vergessen, wenn sie neue Informationen lernen. Stellen Sie sich vor, Sie erinnern sich an den Namen eines neuen Kollegen und haben plötzlich vergessen, wo Sie wohnen. In extremen Fällen können Algorithmen unter den sogenannten leiden "
Katastrophales Vergessen ", wenn der Algorithmus als Ganzes etwas Neues nicht mehr lernen und sich daran erinnern kann.
Die Theorie der altersbedingten kognitiven Beeinträchtigung basiert auf einer ähnlichen Idee: Wenn das Gedächtnis überlastet wird, brauchen sowohl das Gehirn als auch der Computer mehr Zeit, um das zu finden, was sie wissen.
Wann genau ein Fall eine pathologische Wendung nimmt - das hängt vom Standpunkt ab. Infolgedessen bleiben psychische Anomalien bei Menschen oft ungelöst.
Synästhetiker wie meine Tochter, in deren Wahrnehmung die geschriebenen Buchstaben mit bestimmten Farben verbunden sind, erkennen oft nicht, dass sie bis zur Pubertät eine besondere Begabung für die Wahrnehmung haben. Aus Ronald Reagans Sprachanalyse geht nun hervor, dass er als Präsident an Demenz litt. Ein Artikel von The Guardian
beschreibt, wie Massenerschießungen, die in den letzten fünf Jahren in den USA etwa neun von zehn Tagen stattfanden,
häufig von sogenannten inszeniert werden "Normale" Menschen, die Verfolgung und Depression nicht ertragen können.
In vielen Fällen sind mehrere aufeinanderfolgende Unterbrechungen erforderlich, um ein Problem zu erkennen. Die Diagnose einer Schizophrenie dauert mindestens einen Monat, um die Symptome zu beobachten. Asoziale Persönlichkeitsstörungen - ein moderner Begriff für Psychopathie und Soziopathie - können bei Menschen unter 18 Jahren nicht diagnostiziert werden. Sie können dann nur diagnostiziert werden, wenn eine Person Verhaltensstörungen bis zu 15 Jahren hatte.
Die meisten psychischen Störungen haben keine Biomarker, genauso wie es keine Fehler im AlphaGo-Code gibt. Die Probleme in unserer "Ausrüstung" sind nicht sichtbar. Sie ist in unserer "Software". Viele Möglichkeiten zur Störung des Gehirns machen jedes psychische Problem einzigartig. Wir klassifizieren sie in breite Kategorien wie
Schizophrenie oder
Asperger-Syndrom , aber die meisten Erkrankungen haben ein breites Spektrum, das die Symptome abdeckt, die bei den meisten Menschen bis zu dem einen oder anderen Grad auftreten können. Im Jahr 2006 schrieben die Psychologen Matthew Keller und Joffrey Miller, dass dies eine unvermeidliche Eigenschaft der Gehirnstruktur ist.
In einem Geist wie unserem kann viel schief gehen. Carl Jung hat einmal vorgeschlagen, dass in jedem intelligenten Menschen ein Verrückter steckt. Je mehr unsere Algorithmen uns ähneln, desto leichter fällt es ihm, sich darin zu verstecken.
Thomas Hills ist Professor für Psychologie an der University of Warwick in Coventry, Großbritannien.