
"Jede ausreichend fortschrittliche Technologie",
schrieb der graue Kardinal der Science-Fiction Arthur Clark, "ist von Magie nicht zu unterscheiden." Dieses Zitat, das technologiefördernde Fans unermüdlich zitieren, ist vielleicht die destruktivste Aussage, die Clark jemals gemacht hat, da es unser hypnotisches Erstaunen über Technologie fördert und kritisches Denken behindert. Denn wenn es um „Magie“ geht, wird es per Definition etwas Unerklärliches sein. Es macht keinen Sinn, Fragen dazu zu stellen. Akzeptiere es einfach so wie es ist, entspanne dich und übertreibe das Misstrauen.
Jetzt zieht vor allem
magisches Denken künstliche Intelligenz (KI) an sich. Enthusiasten beschreiben es als die wichtigste Erfindung seit dem Rad. Pessimisten sehen darin eine existenzielle Bedrohung für die Menschheit: Die erste „intelligenteste“ Maschine, die wir erschaffen, wird der Anfang vom Ende der Menschheit sein; Die Frage ist nur, ob die Autos uns als Haustiere halten.
In beiden Fällen ist die umgekehrte Beziehung zwischen der Stärke des Glaubens der Menschen an die Fähigkeiten der KI und ihrem Wissen über diese Technologie sichtbar. Experten sind vorsichtig optimistisch, und begeisterte Unterstützer sind sich glücklicherweise nicht bewusst, dass die von ihnen gepriesene KI tatsächlich eine eher banale Kombination aus maschinellem Lernen (MO) und Big Data ist.
Beim maschinellen Lernen werden statistische Techniken verwendet, um Maschinen die Fähigkeit zum „Lernen“ zu ermöglichen. Das heißt, Daten werden verwendet, um die Leistung einer bestimmten Aufgabe kontinuierlich zu verbessern, ohne dass eine vorherige Programmierung erforderlich ist. Das MI-System besteht aus einer Reihe von Algorithmen, die einen Datenstrom als Eingabe verwenden und Links, Korrelationen, Empfehlungen und wahrscheinlich sogar Lösungen ausgeben. Diese Technologie wird bereits überall eingesetzt: Fast jede unserer Interaktionen mit Google, Amazon, Facebook, Netflix, Spotify usw. erfolgt über die Vermittlung von MI-Systemen. Es kam zu dem Punkt, dass einer der prominenten KI-Gurus,
Andrew Eun ,
das MO mit Elektrizität vergleicht.
Für viele Unternehmensleiter scheint eine Maschine, die mehr über ihre Kunden erfahren kann als jemals zuvor, magisch. Stellen Sie sich den Moment vor, als Walmart entdeckte, dass es unter all den Dingen, die die Verbraucher in den USA nach einer
Hurrikanwarnung auf Lager hatten , neben dem üblichen Set auch
Pop-Törtchen mit Bier und Erdbeerkeksen gab. Und die Begeisterung der Unternehmen für magische Technologie ging unweigerlich bald über die Beschaffung von Supermärkten hinaus und wurde an die Regierung übertragen. Das Verteidigungsministerium drang schnell in Vorhersagen über Verkehrsstaus,
vorausschauende Rechtsstaatlichkeit (MO hilft bei der Kennzeichnung von Bereichen, in denen Verbrechen "wahrscheinlich" sind), Entscheidungen über Bewährung usw. ein. Zu den Ausreden für dieses verrückte Wachstum zählen eine höhere Effizienz, eine verbesserte Kontrolle über die Einhaltung von Gesetzen, eine „objektivere“ Entscheidungsfindung und natürlich reaktionsschnellere Versorgungsunternehmen.
Diese allmähliche Verschiebung des Fokus blieb nicht unbemerkt. Kritiker bemerken, dass der alte Computer-Aphorismus „Müll rein, Müll rein“ für die Region Moskau gilt. Wenn die Daten, auf denen die Maschine „lernt“, verzerrt sind,
spiegelt ihre Ausgabe
diese Verzerrung wider . Dies kann verallgemeinert werden; Vielleicht haben wir eine Technologie entwickelt, die - obwohl sie den Empfehlungen entspricht, welchen Film Sie sich ansehen sollten -
zu einem Faktor werden kann, der die soziale, wirtschaftliche und kulturelle Ungleichheit verstärkt.
Bei all dieser gesellschaftspolitischen Kritik an der Region Moskau stellte niemand die technologische Effizienz der Idee selbst in Frage - das heißt, es wurde angenommen, dass falsche Entscheidungen, die sie hervorbringt, ausschließlich von Mängeln in den Eingabedaten abhängen. Aber jetzt ist diese beruhigende Annahme ziemlich umstritten. Auf einer kürzlich abgehaltenen NIPS-Konferenz (Neural Information Processing System) warf das große jährliche Treffen der MO-Experten Ali Rahimi, einer der anerkannten Stars auf diesem Gebiet, eine intellektuelle Granate ins Publikum. In einem bemerkenswerten Vortrag verglich er das MO mit der mittelalterlichen Alchemie. Beide Wissensbereiche erwiesen sich bis zu einem gewissen Grad als funktionierend - Alchemisten entwickelten die Metallurgie und die Herstellung von Glas; MO-Forscher haben Maschinen entwickelt, mit denen Menschen in Go besiegt und Objekte aus dem Bild identifiziert werden können. Aber genau wie der Alchemie eine wissenschaftliche Grundlage fehlte, fehlt es laut Rahimi auch an MO. Er argumentiert, dass Forscher die Arbeitsprinzipien ihrer mathematischen Modelle oft nicht erklären können - sie haben kein klares und detailliertes Verständnis ihrer Werkzeuge und in diesem Sinne arbeiten sie in der Rolle von Alchemisten, nicht von Wissenschaftlern.
Ist das wichtig? Auf jeden Fall ja. Wie Rahimi sagt: „Wir schaffen Systeme, die das Gesundheitswesen verwalten und als Vermittler in zivilen Angelegenheiten dienen. Wir werden die Wahl beeinflussen. "Ich möchte in einer Gesellschaft leben, deren Systeme auf überprüfbarem, rigorosem, umfassendem Wissen und nicht auf Alchemie beruhen."
Mir auch. Basierend auf Elektrizität haben wir das geschaffen, was wir gerne Zivilisation nennen. Aber zumindest haben wir verstanden, warum und wie es funktioniert. Wenn Rahimi Recht hat, dann sind wir im Fall der KI dem noch nicht nahe gekommen. Hören wir also auf, magisch darüber nachzudenken.