
Vor fünf Jahren sahen Programmierer von DeepMind, einem in London ansässigen AI-Unternehmen, glücklich zu, wie AI lernte, ein klassisches Arcade-Spiel alleine zu spielen. Sie verwendeten die modische Technologie des tiefen Lernens (GO) für eine scheinbar seltsame Aufgabe: das Spiel in
Breakout von Atari zu meistern, bei dem Sie den Ball von der Mauer schlagen müssen, damit die Steine verschwinden.
GO ist selbstlernend für Maschinen; Sie geben AI riesige Datenmengen ein und es beginnt allmählich, Muster unabhängig zu erkennen. In diesem Fall waren die Daten das, was auf dem Bildschirm geschah - große Pixel repräsentierten Steine, einen Ball und einen Schläger. In AI DeepMind, einem neuronalen Netzwerk, das aus geschichteten Algorithmen besteht, wurden keine Kenntnisse über die Regeln des Breakout-Spiels, seine Funktionsprinzipien, Ziele und Methoden des Spiels vermittelt. Programmierer erlaubten dem neuronalen Netzwerk einfach, die Ergebnisse jeder Aktion und jedes Abpralls zu untersuchen. Was wird es führen?
Es stellte sich als beeindruckende Fähigkeiten heraus. In den ersten Versuchen hing die KI zufällig aus. Nachdem er mehrere hundert Mal gespielt hatte, fing er an, den Ball genau zu treffen. Bis zum 600. Spiel hat das neuronale Netzwerk Expertenbewegungen entwickelt, die von Breakout-Spielern verwendet werden, wenn ein Spieler ein Loch in die Steine bricht und den Ball schickt, um auf die Wand zu springen.
"Das war eine große Überraschung für uns", sagte Demis Khasabis, Direktor von DeepMind. "Die Strategie ging aus dem System selbst hervor." AI hat die Fähigkeit bewiesen, ungewöhnlich subtil menschlich zu denken und die internen Konzepte zu verstehen, die dem Spiel zugrunde liegen. Da neuronale Netze theoretisch in gewissem Sinne die Struktur des menschlichen Gehirns grob kopieren, sollten sie auch unseren Denkstil kopieren. Dieser Moment schien eine Bestätigung der Theorie zu sein.
Letztes Jahr boten Informatiker von Vicarious, einem in San Francisco ansässigen KI-Forschungsunternehmen, eine interessante Möglichkeit, KI unter realen Bedingungen zu testen. Sie nahmen die Art von KI, die sie in DeepMind verwendeten, und trainierten sie, um Breakout zu spielen. Er hat es gut gemacht. Und dann haben sie angefangen, das Spiellayout ein wenig zu optimieren. Sie werden entweder einen Schläger erheben oder einen undurchdringlichen Bereich in der Mitte des Feldes hinzufügen.
Ein menschlicher Spieler könnte sich schnell an diese Veränderungen anpassen. aber das neuronale Netz konnte nicht. Crazy AI konnte anscheinend nur Breakout spielen, wie er es für Hunderte von Versuchen studiert hatte. Er verdaute nichts Neues.
„Menschen können nicht nur Muster erkennen“, sagt mir Dilip George, ein IT-Spezialist, einer der Gründer von Vicarious. - Wir erstellen immer noch Modelle von dem, was wir sehen. Und diese Kausalmodelle - wir verbinden Ursache und Wirkung. “ Menschen argumentieren, ziehen logische Schlussfolgerungen in Bezug auf die Welt um sie herum; Wir haben eine Wissensbasis mit gesundem Menschenverstand, die uns hilft, neue Situationen zu verstehen. Wenn wir einen Breakout sehen, der sich geringfügig von dem unterscheidet, den wir gerade gespielt haben, stellen wir fest, dass er höchstwahrscheinlich ähnliche Regeln und Ziele haben wird. Das neuronale Netzwerk verstand nichts über den Ausbruch. Sie kann nur Mustern folgen. Als sich das Muster änderte, wurde sie hilflos.
GO ist der König der KI. In den sechs Jahren, in denen es in den Mainstream eingebrochen ist, ist es die Hauptmethode geworden, um Maschinen beizubringen, wie sie die Welt um sich herum wahrnehmen und fühlen können. Sie steht hinter Alexas Spracherkennung, Waymos Roboterautos und Googles Sofortübersetzungen. Uber ist in gewisser Weise eine gigantische Optimierungsaufgabe und verwendet maschinelles Lernen (MO), um vorherzusagen, wo Passagiere Autos benötigen werden. Baidu, ein chinesischer Technologieriese, hat 2.000 Programmierer, die an neuronalen Netzen arbeiten. Jahrelang schien es, als würde sich GO nur verbessern und unaufhaltsam eine Maschine mit flexibler und schneller Intelligenz hervorbringen, die zu einer Person passt.
Einige Ketzer behaupten jedoch, dass der Zivilschutz an die Mauer stößt. Sie sagen, dass es allein niemals generalisierte künstliche Intelligenz (KI) erzeugen kann, da ein wahrhaft menschlicher Geist nicht nur das Erkennen von Mustern ist. Es ist Zeit für uns, daran zu arbeiten, wie wir der KI den alltäglichen gesunden Menschenverstand, den menschlichen Geist, vermitteln können. Wenn dies für sie nicht funktioniert, werden sie warnen, werden wir auf unsere Einschränkungen für GO stoßen, als Mustererkennungssysteme, die leicht durch Ändern eines Teils der Eingabe getäuscht werden können, wodurch das GO-Modell die Schildkröte für eine Waffe nimmt. Wenn wir dies jedoch schaffen, werden wir Zeuge des explosiven Wachstums sicherer und nützlicherer Geräte sein - medizinische Roboter, die sich in einem überfüllten Haus bewegen, gefälschte Erkennungssysteme, die nicht unter falsch positiven Ergebnissen leiden, medizinische Durchbrüche von Maschinen, die die Ursachen und Folgen von Krankheiten untersuchen.
Aber wie sieht wahres Denken in einem Auto aus? Und wenn die Zivilgesellschaft uns nicht dazu führen kann, was kann das?

Gary Marcus ist ein nachdenklicher 48-jähriger Professor für Psychologie und Neurologie an der New York University mit Doppellinsenbrille und wahrscheinlich der berühmteste orthodoxe Deep-Learning-Abtrünnige.
Zum ersten Mal interessierte sich Marcus in den 1980er und 90er Jahren für KI, als sich neuronale Netze in der experimentellen Phase befanden, und seitdem haben sich seine Argumente nicht geändert. "Es ist nicht so, dass ich zu spät zur Party komme, und ich möchte hier alles vulgarisieren", sagte Marcus, als wir uns in seiner Wohnung in der Nähe der New York University trafen (er und ich sind auch Freunde). "Sobald die GO-Explosion stattfand, sagte ich: Leute, das ist die falsche Richtung!"
Dann unterschied sich die GO-Strategie nicht von der aktuellen. Angenommen, Sie benötigen eine Maschine, um das Erkennen von Gänseblümchen zu erlernen. Zuerst müssen Sie die algorithmischen „Neuronen“ codieren, indem Sie sie wie ein Sandwich zu Schichten kombinieren (bei Verwendung mehrerer Schichten wird der Buter dicker oder „tiefer“ - daher das „tiefe“ Lernen). In der ersten Ebene zeigen Sie das Bild des Gänseblümchens, und seine Neuronen sind aktiviert oder nicht aktiviert, je nachdem, ob dieses Bild Beispielen von Gänseblümchen ähnelt, die zuvor gesehen wurden. Das Signal bewegt sich dann zur nächsten Schicht, wo sich der Vorgang wiederholt. Infolgedessen durchsuchen die Ebenen die Daten und fällen ein Urteil.
Erstens ist das neuronale Netzwerk mit blindem Raten beschäftigt; Sie beginnt ihr Leben von Grund auf neu. Das Endergebnis ist, nützliches Feedback zu organisieren. Jedes Mal, wenn die KI das Gänseblümchen in der Gruppe der Neuronen nicht errät, werden die Verbindungen, die zur falschen Antwort führen, geschwächt. Wenn Sie raten, werden die Verbindungen verbessert. Nachdem genügend Zeit und Gänseblümchen vergangen sind, wird das neuronale Netzwerk genauer. Sie lernt, bestimmte Muster von Gänseblümchen zu erfassen, sodass sie jedes Mal ein Gänseblümchen identifizieren kann (anstatt Sonnenblumen oder Astern). Im Laufe der Jahre wurde die Schlüsselidee - mit einem naiven Netzwerk zu beginnen und es mit Wiederholungen zu trainieren - verbessert und schien in fast allen Anwendungen nützlich zu sein.
Aber Marcus war nicht überzeugt. Aus seiner Sicht war ein sauberer Schiefer ein Problem: Es wird angenommen, dass Menschen Intelligenz nur durch Beobachtung der Welt um sie herum entwickeln, was bedeutet, dass auch Maschinen dazu in der Lage sind. Aber Marcus glaubt, dass die Leute nicht so arbeiten. Er folgt dem intellektuellen Weg
von Noam Chomsky , der behauptet, dass Menschen mit einer Veranlagung zum Lernen und mit einem Programm zum Erlernen von Sprachen und zur Interpretation der physischen Welt geboren werden.
Bei all dem, was dem Gehirn angeblich ähnlich ist, scheinen neuronale Netze nicht wie das menschliche Gehirn zu funktionieren. Zum Beispiel benötigen sie zu viele Daten. In den meisten Fällen erfordert jedes Netzwerk Tausende oder Millionen von Schulungsbeispielen. Schlimmer noch, jedes Mal, wenn Sie das Netzwerk ein neues Element erkennen lassen müssen, müssen Sie von vorne beginnen. Ein neuronales Netzwerk, das darauf trainiert ist, Kanarienvögel zu erkennen, ist überhaupt nicht nützlich, um Vogellieder oder menschliche Sprache zu erkennen.
"Wir brauchen keine großen Datenmengen für das Training", sagt Marcus. Seine Kinder müssen nicht eine Million Autos sehen, bevor sie das Auto erkennen können. Was noch besser ist, sie können verallgemeinern: Wenn sie zum ersten Mal einen Traktor sehen, verstehen sie, dass er wie ein Auto aussieht. Sie wissen auch, wie man das Gegenteil annimmt. Google Translate kann das französische Äquivalent des englischen Satzes "Das Glas wurde bewegt und ist vom Tisch gefallen" ausgeben. Aber er versteht die Bedeutung von Wörtern nicht und kann Ihnen nicht sagen, was passieren wird, wenn Sie das Glas nicht bewegen. Wie Marcus bemerkt, verstehen die Menschen nicht nur die Gesetze der Grammatik, sondern auch die Logik hinter den Worten. Sie können dem Kind das erfundene Verb „Tanz“ geben, und es wird höchstwahrscheinlich vermuten, dass es in der Vergangenheitsform „tanzen“ wird. Aber er hatte so ein Wort noch nie gesehen. Er war nicht "ausgebildet". Er hat die Logik der Sprache nur intuitiv gespürt und kann sie auf eine neue Situation anwenden.
„GO-Systeme wissen nicht, wie man abstraktes Wissen integriert“, sagt Marcus, der das Unternehmen gründete, das AI entwickelt hat, das aus weniger Daten lernen kann (und es 2016 an Uber verkaufte).
In diesem Jahr veröffentlichte Marcus einen Preprint der Arbeit an arXiv, in dem er behauptet, dass GO ohne neue Ansätze seine derzeitigen Einschränkungen möglicherweise nie überwinden wird. Er braucht einen Durchbruch - eingebaute oder ergänzende Regeln, die der KI helfen, über die Welt nachzudenken.