Algorithmen für maschinelles Lernen verstehen die Realität noch nicht so, wie Menschen es tun - manchmal mit katastrophalen FolgenÜber den Autor:
Melanie Mitchell ist Professorin für Informatik an der Portland State University und Gastprofessorin am Santa Fe Institute. Ihr Buch Künstliche Intelligenz: Ein Leitfaden für denkende Menschen wird 2019 von Farrar, Straus und Giroux veröffentlicht
Besucher der Artificial Intelligence Expo in Südafrika, September 2018. Foto: Nic Bothma / EPA, über ShutterstockSie haben wahrscheinlich gehört, dass wir uns mitten in einer KI-Revolution befinden. Uns wird gesagt, dass die maschinelle Intelligenz mit erstaunlicher Geschwindigkeit Fortschritte macht und sich auf „Deep Learning“ -Algorithmen stützt, die große Datenmengen verwenden, um komplexe Programme zu trainieren, die als „neuronale Netze“ bekannt sind.
Heutige Programme können Gesichter erkennen und Sprache aufzeichnen. Wir haben Programme zur Aufdeckung subtilen Finanzbetrugs, zum Auffinden relevanter Webseiten als Antwort auf mehrdeutige Anfragen, zum Festlegen der optimalen Route fast überall. Diese Programme besiegen Großmeister in Schach und Go und übersetzen zwischen Hunderten von Sprachen. Darüber hinaus werden uns bald und überall unbemannte Fahrzeuge, automatische Krebsdiagnostik, Hausreinigungsroboter und sogar automatische wissenschaftliche Entdeckungen versprochen.
Facebook-Gründer Mark Zuckerberg
sagte kürzlich, dass das Unternehmen in den nächsten fünf bis zehn Jahren KI entwickeln wird, um "das Niveau einer Person in allen grundlegenden Sinnen zu übertreffen: Sehen, Hören, Sprache, allgemeines Verständnis". Shane Legg, Chief Research Fellow bei Google DeepMind,
sagt voraus, dass "die KI Mitte der 2020er Jahre das menschliche Niveau übertreffen wird".
Als eine Person, die mehrere Jahrzehnte auf dem Gebiet der KI gearbeitet hat, habe ich das Scheitern vieler solcher Vorhersagen miterlebt. Und ich bin mir sicher, dass die neuesten Prognosen auch nicht in Erfüllung gehen werden. Das Problem der Schaffung menschlicher Intelligenz in Maschinen wird nach wie vor stark unterschätzt. Den heutigen KI-Systemen fehlt das Wesen der menschlichen Intelligenz schmerzlich: das
Verstehen der Situationen, die wir erleben, die Fähigkeit, ihre Bedeutung zu verstehen. Der Mathematiker und Philosoph Gian-Carlo Rota stellte die berühmte Frage: "Ich frage mich, ob die KI jemals in der Lage sein wird, die Barriere des Verstehens zu überwinden." Für mich ist dies immer noch das wichtigste Thema.
Der Mangel an menschlichem Verständnis in Maschinen wird durch die Probleme unterstrichen, die kürzlich in den Grundlagen der modernen KI aufgetreten sind. Obwohl moderne Programme viel beeindruckender sind als Systeme vor 20 bis 30 Jahren, zeigen eine Reihe von Studien, dass Deep-Learning-Systeme Unsicherheit auf völlig unmenschliche Weise demonstrieren.
Ich werde einige Beispiele geben.
"Der Mann mit dem nackten Kopf braucht einen Hut" [Der Mann mit dem nackten Kopf brauchte einen Hut] - das Spracherkennungsprogramm am Telefon erkennt diesen Satz als "Der Mann mit dem nackten Kopf brauchte einen Hut". Der Satz „Ich stecke das Schwein in den Stift“ [Ich stecke das Schwein in den Stift] Google Translate übersetzt ins Französische als „Ich stecke das Schwein in den Stift“ [Je mets le cochon dans le stylo].
Programme, die Dokumente „lesen“ und Fragen dazu beantworten, lassen sich
leicht täuschen, wenn dem Dokument kurze, irrelevante Textfragmente hinzugefügt werden.
In ähnlicher Weise scheitern Programme, die Gesichter und Objekte erkennen (der gefeierte Triumph des tiefen Lernens), wenn Sie die Eingabedaten mit bestimmten Arten von Beleuchtung, Bildfilterung und anderen Änderungen, die die Effizienz der menschlichen Erkennung von Objekten nicht im geringsten beeinträchtigen, ein wenig ändern .
Eine kürzlich durchgeführte Studie hat
gezeigt, dass das Hinzufügen einer kleinen Menge „Rauschen“ zu einem Gesichtsbild die modernen Gesichtserkennungsprogramme ernsthaft beeinträchtigt.
Eine andere Studie , humorvoll „Der Elefant im Raum“ genannt, zeigt, dass ein kleines Bild eines fremden Objekts wie eines Elefanten in der Ecke des Wohnzimmerbildes auf seltsame Weise dazu führt, dass Bildverarbeitungssysteme beim tiefen Lernen andere Objekte falsch klassifizieren.
Darüber hinaus gehen Programme , die gelernt haben, ein bestimmtes Videospiel oder Brettspiel auf „übermenschlicher“ Ebene meisterhaft zu spielen, vollständig verloren, wenn sich die Bedingungen geringfügig ändern (Änderung des Hintergrunds auf dem Bildschirm oder Änderung der Position der virtuellen „Plattform“ zum Schlagen des „Balls“).
Dies sind nur einige Beispiele, die die Unzuverlässigkeit der besten KI-Programme demonstrieren, wenn sich die Situation geringfügig von der unterscheidet, auf der sie trainiert haben. Fehler in diesen Systemen reichen von lächerlich und harmlos bis zu potenziell katastrophal. Stellen Sie sich zum Beispiel ein Flughafensicherheitssystem vor, mit dem Sie nicht in einen Flug einsteigen können, weil Ihr Gesicht mit dem eines Verbrechers verwechselt wurde, oder ein unbemanntes Fahrzeug, das aufgrund ungewöhnlicher Lichtverhältnisse nicht bemerkt hat, dass Sie an einer Kreuzung abreisen.
Noch alarmierender sind die jüngsten Demonstrationen von KI-Schwachstellen gegenüber sogenannten "feindlichen" Beispielen. In ihnen kann ein böswilliger Hacker bestimmte Änderungen an Bildern, Ton oder Text vornehmen, die für den Menschen unsichtbar oder unbedeutend sind, aber zu potenziell katastrophalen KI-Fehlern führen.
Die Möglichkeit solcher Angriffe wird in fast allen Bereichen der KI gezeigt, einschließlich Computer Vision, medizinischer Bildverarbeitung, Spracherkennung und -verarbeitung. Zahlreiche Studien haben gezeigt, mit welcher Leichtigkeit Hacker Gesichtserkennungssysteme oder Objekte mit
spärlichen Bildänderungen
austricksen können .
Unsichtbare Aufkleber auf dem Stoppschild zwingen das Bildverarbeitungssystem in einem unbemannten Fahrzeug, es für „Take the Road“ zu nehmen, und die
Änderung des Tonsignals , das wie Hintergrundmusik für eine Person klingt, weist das Siri- oder Alexa-System an, einen bestimmten Befehl heimlich auszuführen.
Diese potenziellen Schwachstellen veranschaulichen, warum der aktuelle KI-Fortschritt auf einem Hindernis für das Verständnis beruht. Jeder, der mit KI-Systemen arbeitet, weiß, dass diese Programme hinter einer Fassade, die dem menschlichen Sehen, Sprechen und Spielen ähnlich ist, die Eingabedaten, die sie für die Verarbeitung erhalten, und die daraus resultierenden Ergebnisse auf keine menschliche Weise
verstehen . Das Fehlen eines solchen Verständnisses macht diese Programme anfällig für unerwartete Fehler und unsichtbare Angriffe.
Was ist erforderlich, um diese Barriere zu überwinden, damit Maschinen die Situationen, mit denen sie konfrontiert sind, besser verstehen können, anstatt sich auf kleine Teile zu verlassen? Um die Antwort zu finden, müssen Sie sich dem Studium des menschlichen Wissens zuwenden.
Unser eigenes Verständnis der Situationen, mit denen wir konfrontiert sind, basiert auf umfassenden, intuitiven „Common-Sense-Konzepten“ über die Funktionsweise der Welt und die Ziele, Motive und das wahrscheinliche Verhalten anderer Lebewesen, insbesondere anderer Menschen. Darüber hinaus basiert unser Verständnis der Welt auf unseren grundlegenden Fähigkeiten
, das, was wir wissen,
zu verallgemeinern , abstrakte Konzepte zu bilden und Analogien zu ziehen - kurz gesagt, unsere Konzepte flexibel an neue Situationen anzupassen. Seit Jahrzehnten experimentieren Forscher damit, KI intuitiven gesunden Menschenverstand und nachhaltige menschliche Fähigkeiten zur Verallgemeinerung beizubringen, aber in dieser sehr schwierigen Angelegenheit wurden nur geringe Fortschritte erzielt.
KI-Programme mit einem Mangel an gesundem Menschenverstand und anderen Schlüsselaspekten des menschlichen Verständnisses werden zunehmend in realen Anwendungen eingesetzt. Während sich einige Leute Sorgen über die „Superintelligenz“ der KI machen, ist der gefährlichste Aspekt der KI, dass wir solchen Systemen zu viel vertrauen und ihnen zu viel Autonomie geben, ohne sich ihrer Grenzen voll bewusst zu sein. Wie der Forscher Pedro Domingos in seinem Buch The Main Algorithm feststellte:
"Die Menschen befürchten, dass Computer zu intelligent werden und die Welt übernehmen, aber das eigentliche Problem ist, dass sie zu dumm sind und sie bereits übernommen haben .
"Das KI-Kommerzialisierungsrennen übte einen enormen Druck auf die Forscher aus, Systeme zu entwickeln, die bei engen Aufgaben „einigermaßen gut“ funktionieren. Letztendlich erfordert das Ziel der Entwicklung einer
zuverlässigen KI jedoch eine eingehendere Untersuchung unserer eigenen bemerkenswerten Fähigkeiten und ein neues Verständnis der kognitiven Mechanismen, mit denen wir selbst die Welt um uns herum zuverlässig verstehen. Die Überwindung der Barriere für das Verständnis der KI wird wahrscheinlich einen Schritt zurückgehen - von immer größeren Netzwerken und Datensätzen bis zu den Wurzeln der Branche als interdisziplinäre Wissenschaft, die das komplexeste wissenschaftliche Problem untersucht: die Natur der Intelligenz.