Dieser Text ist nicht das Ergebnis wissenschaftlicher Forschung, sondern eine von vielen Meinungen zu unserer unmittelbaren technologischen Entwicklung. Und gleichzeitig eine Einladung zur Diskussion.Gary Marcus, Professor an der New York University, ist überzeugt, dass Deep Learning eine wichtige Rolle bei der Entwicklung der KI spielt. Er glaubt aber auch, dass übermäßige Begeisterung für diese Technik zu ihrer Diskreditierung führen kann.
In seinem Buch "
KI neu starten: Künstliche Intelligenz aufbauen"
können wir Marcus
vertrauen , einem ausgebildeten Neurologen, der seine Karriere auf der neuesten KI-Forschung aufgebaut hat und sich mit technischen und ethischen Fragen befasst. Aus technologischer Sicht kann Deep Learning die Lösung von Wahrnehmungsaufgaben, die unser Gehirn ausführt, erfolgreich imitieren: zum Beispiel die Erkennung von Bildern oder Sprache. Für die Lösung anderer Aufgaben, wie das Verstehen von Gesprächen oder das Bestimmen von Kausalzusammenhängen, ist tiefes Lernen jedoch nicht gut. Um fortschrittlichere intelligente Maschinen zu entwickeln, die ein breiteres Spektrum von Aufgaben lösen können - sie werden oft als allgemeine künstliche Intelligenz bezeichnet -, muss tiefes Lernen mit anderen Techniken kombiniert werden.
Wenn das KI-System seine Aufgaben oder die Welt um es herum nicht wirklich versteht, kann dies zu gefährlichen Konsequenzen führen. Selbst kleinste unerwartete Änderungen in der Umgebung des Systems können zu fehlerhaftem Verhalten führen. Es gab bereits viele solcher Beispiele: Determinanten unangemessener Ausdrücke, die leicht zu täuschen sind; Arbeitssuchsysteme, die ständig diskriminieren; unbemannte Fahrzeuge, die in Unfälle geraten und manchmal einen Fahrer oder einen Fußgänger töten. Die Schaffung allgemeiner künstlicher Intelligenz ist nicht nur ein interessantes Forschungsproblem, sondern hat viele völlig praktische Anwendungen.
In seinem Buch haben Marcus und sein Co-Autor Ernest Davis einen anderen Weg eingeschlagen. Sie glauben, dass wir noch weit davon entfernt sind, eine gemeinsame KI zu schaffen, aber sie sind sicher, dass es früher oder später möglich sein wird, sie zu schaffen.
Warum brauchen wir eine gemeinsame KI? Es wurden bereits spezielle Versionen erstellt, die viele Vorteile bieten.Stimmt, und die Vorteile werden noch größer sein. Aber es gibt viele Aufgaben, die spezialisierte KI einfach nicht lösen kann. Zum Beispiel das Verstehen gewöhnlicher Sprache oder allgemeiner Hilfe in der virtuellen Welt oder eines Roboters, der beim Reinigen und Kochen hilft. Solche Aufgaben gehen über die Fähigkeiten einer spezialisierten KI hinaus. Eine weitere interessante praktische Frage: Ist es möglich, mit einer speziellen KI ein sicheres Drohnenauto zu erstellen? Die Erfahrung zeigt, dass eine solche KI auch beim Fahren immer noch viele Probleme mit dem Verhalten in abnormalen Situationen hat, was die Situation erheblich verkompliziert.
Ich denke, wir alle möchten eine KI, die uns helfen kann, neue groß angelegte Entdeckungen in der Medizin zu machen. Es ist unklar, ob aktuelle Technologien dafür geeignet sind, da die Biologie ein komplexes Gebiet ist. Man muss bereit sein, viele Bücher zu lesen. Wissenschaftler verstehen die Ursache-Wirkungs-Beziehungen in der Wechselwirkung von Netzwerken und Molekülen, können Theorien über Planeten entwickeln und so weiter. Mit spezialisierter KI können wir jedoch keine Maschinen erstellen, die zu solchen Entdeckungen fähig sind. Und mit einer gemeinsamen KI könnten wir Wissenschaft, Technologie und Medizin revolutionieren. Meiner Meinung nach ist es sehr wichtig, weiter an einer gemeinsamen KI zu arbeiten.
Klingt nach "allgemein", um starke KI zu bedeuten?Mit "allgemein" meine ich, dass die KI in der Lage sein wird, neue Probleme im laufenden Betrieb zu überlegen und unabhängig zu lösen. Im Gegensatz zu beispielsweise Guo, bei dem sich das Problem in den letzten 2000 Jahren nicht geändert hat.
Die allgemeine KI sollte in der Lage sein, Entscheidungen sowohl in der Politik als auch in der Medizin zu treffen. Dies ist ein Analogon der menschlichen Fähigkeiten; Jeder gesunde Mensch kann viel tun. Sie nehmen unerfahrene Studenten mit und zwingen sie nach einigen Tagen, an fast allem zu arbeiten, angefangen bei der juristischen Aufgabe bis hin zur medizinischen. Dies liegt an der Tatsache, dass sie ein gemeinsames Verständnis der Welt haben und lesen können und daher zu einem sehr breiten Spektrum von Aktivitäten beitragen können.
Die Beziehung zwischen einem solchen und einem starken Intellekt besteht darin, dass ein nicht starker Intellekt wahrscheinlich nicht in der Lage sein wird, gemeinsame Probleme zu lösen. Um etwas zu schaffen, das zuverlässig genug ist, um mit einer sich ständig verändernden Welt zu arbeiten, müssen Sie möglicherweise zumindest der gemeinsamen Intelligenz näher kommen.
Aber jetzt sind wir sehr weit davon entfernt. AlphaGo kann perfekt auf einem 19x19-Brett spielen, muss jedoch umgeschult werden, um auf einem rechteckigen Brett zu spielen. Oder nehmen Sie das durchschnittliche Deep-Learning-System: Es kann einen Elefanten erkennen, wenn er gut beleuchtet ist und seine Hautstruktur sichtbar ist. Und wenn nur die Silhouette eines Elefanten sichtbar ist, kann das System sie wahrscheinlich nicht erkennen.
In Ihrem Buch erwähnen Sie, dass tiefes Lernen nicht in der Lage ist, die Fähigkeiten der allgemeinen KI zu erreichen, weil es nicht in der Lage ist, tiefes Verständnis zu erlangen.In der Kognitionswissenschaft sprechen sie über die Bildung verschiedener kognitiver Modelle. Ich sitze in einem Hotelzimmer und verstehe, dass es einen Schrank gibt, ein Bett, einen Fernseher, der ungewöhnlich aufgehängt ist. Ich kenne all diese Gegenstände, ich identifiziere sie nicht nur. Ich verstehe auch, wie sie miteinander verbunden sind. Ich habe Ideen über das Funktionieren der Welt. Sie sind nicht perfekt. Sie mögen falsch sein, aber sie sind sehr gut. Und basierend auf ihnen mache ich viele Schlussfolgerungen, die als Leitfaden für mein tägliches Handeln dienen.
Das andere Extrem ist so etwas wie das von DeepMind entwickelte Atari-Spielesystem, bei dem er sich daran erinnerte, was er tun musste, wenn er an bestimmten Stellen auf dem Bildschirm Pixel sah. Wenn Sie genügend Daten erhalten, scheint es, dass Sie ein Verständnis haben, aber tatsächlich ist es sehr oberflächlich. Der Beweis ist, dass die KI viel schlechter spielt, wenn Sie Objekte um drei Pixel verschieben. Veränderung verwirrt ihn. Dies ist das Gegenteil von tiefem Verständnis.
Um dieses Problem zu lösen, schlagen Sie vor, zur klassischen KI zurückzukehren. Welche Vorteile müssen wir nutzen?Es gibt mehrere Vorteile.
Erstens ist die klassische KI tatsächlich ein Rahmen für die Erstellung kognitiver Modelle der Welt, auf deren Grundlage Schlussfolgerungen gezogen werden können.
Zweitens ist die klassische KI perfekt mit den Regeln kompatibel. Im Bereich des tiefen Lernens gibt es eine merkwürdige Tendenz, wenn Spezialisten versuchen, die Regeln zu umgehen. Sie wollen alles in neuronalen Netzen tun und nichts, was wie klassische Programmierung aussieht. Aber es gibt Aufgaben, die auf diese Weise ruhig gelöst wurden, und niemand hat darauf geachtet. Zum Beispiel das Erstellen von Routen in Google Maps.
Tatsächlich brauchen wir beide Ansätze. Durch maschinelles Lernen können Sie gut aus Daten lernen, aber es hilft sehr schlecht, die Abstraktion anzuzeigen, die ein Computerprogramm darstellt. Die klassische KI funktioniert gut mit Abstraktionen, muss jedoch vollständig manuell programmiert werden, und es gibt zu viel Wissen auf der Welt, um sie alle zu programmieren. Natürlich müssen wir beide Ansätze kombinieren.
Dies bezieht sich auf das Kapitel, in dem Sie darüber sprechen, was wir vom menschlichen Verstand lernen können. Und zuallererst über das Konzept, das auf der oben erwähnten Idee basiert, dass unser Bewusstsein aus vielen verschiedenen Systemen besteht, die auf unterschiedliche Weise funktionieren.Ich denke, es gibt einen anderen Weg, dies zu erklären: Jedes kognitive System, das wir haben, löst wirklich unterschiedliche Probleme. Ähnliche Teile der KI sollten so konzipiert sein, dass sie verschiedene Probleme mit unterschiedlichen Eigenschaften lösen.
Jetzt versuchen wir, einige All-in-One-Technologien zu verwenden, um Probleme zu lösen, die sich radikal voneinander unterscheiden. Das Verstehen eines Satzes ist keineswegs gleichbedeutend mit dem Erkennen eines Objekts. In beiden Fällen versuchen die Menschen jedoch, tiefes Lernen anzuwenden. Aus kognitiver Sicht sind dies qualitativ unterschiedliche Aufgaben. Ich bin nur erstaunt, wie wenig die Community der Deep-Learning-Experten die klassische KI schätzt. Warum warten, bis eine Silberkugel erscheint? Es ist unerreichbar, und erfolglose Suchen erlauben es nicht, die Komplexität der Aufgabe der Erstellung von KI zu verstehen.
Sie erwähnen auch, dass KI-Systeme notwendig sind, um Ursache-Wirkungs-Beziehungen zu verstehen. Denken Sie, dass tiefes Lernen, klassische KI oder etwas völlig Neues uns dabei helfen werden?Dies ist ein weiterer Bereich, für den Deep Learning nicht allzu geeignet ist. Es erklärt nicht die Ursachen einiger Ereignisse, sondern berechnet die Wahrscheinlichkeit eines Ereignisses unter bestimmten Bedingungen.
Worüber reden wir? Sie betrachten bestimmte Szenarien und verstehen, warum dies geschieht und was passieren kann, wenn sich bestimmte Umstände ändern. Ich kann auf den Ständer schauen, auf dem der Fernseher steht, und mir vorstellen, dass sich der Ständer umdreht und der Fernseher herunterfällt, wenn ich eines ihrer Beine abschneide. Dies ist ein Kausalzusammenhang.
Die klassische KI bietet uns einige Werkzeuge dafür. Er kann sich zum Beispiel vorstellen, was Unterstützung ist und was Herbst ist. Aber ich werde nicht loben. Das Problem ist, dass die klassische KI zum größten Teil von der Vollständigkeit der Informationen über das Geschehen abhängt, aber ich schloss nur mit einem Blick auf den Stand. Irgendwie kann ich verallgemeinern, mir Teile des Standes vorstellen, die für mich nicht sichtbar sind. Wir haben noch keine Tools, um diese Eigenschaft zu implementieren.
Sie sagen auch, dass Menschen angeborenes Wissen haben. Wie kann dies in AI implementiert werden?Zum Zeitpunkt der Geburt ist unser Gehirn bereits ein sehr sorgfältig durchdachtes System. Es ist nicht festgelegt, die Natur hat den ersten groben Entwurf erstellt. Und dann hilft uns das Lernen, diesen Entwurf unser ganzes Leben lang zu überarbeiten.
Ein grober Entwurf des Gehirns hat bereits bestimmte Fähigkeiten. Eine neugeborene Bergziege kann in wenigen Stunden den Hang des Berges genau hinuntersteigen. Offensichtlich hat er bereits ein Verständnis für den dreidimensionalen Raum, seinen Körper und die Beziehung zwischen ihnen. Sehr kompliziertes System.
Dies ist teilweise der Grund, warum ich denke, wir brauchen Hybriden. Es ist schwer vorstellbar, wie Sie einen Roboter schaffen können, der in der Welt ohne ähnliche Kenntnisse gut funktioniert, wo Sie anfangen sollen, anstatt von vorne zu beginnen und aus einer langen, umfassenden Erfahrung zu lernen.
Für den Menschen stammt unser angeborenes Wissen aus unserem Genom, das sich im Laufe der Zeit entwickelt hat. Und mit KI-Systemen müssen wir den anderen Weg gehen. Zum Teil können dies die Regeln für die Erstellung unserer Algorithmen sein. Zum Teil können dies Regeln zum Erstellen von Datenstrukturen sein, die diese Algorithmen manipulieren. Zum Teil kann dies das Wissen sein, dass wir direkt in Maschinen investieren werden.
Interessanterweise bringen Sie in dem Buch die Idee des Vertrauens und die Schaffung von Vertrauenssystemen zum Ausdruck. Warum haben Sie dieses Kriterium gewählt?Ich glaube, dass dies heute alles ein Ballspiel ist. Es scheint mir, dass wir einen seltsamen Moment in der Geschichte erleben und weitgehend auf Software vertrauen, die nicht vertrauenswürdig ist. Ich denke, die inhärenten Ängste von heute werden nicht ewig anhalten. In hundert Jahren wird die KI unser Vertrauen rechtfertigen, und vielleicht sogar noch früher.
Aber heute ist KI gefährlich. Nicht in dem Sinne, wie Elon Musk befürchtet, sondern in der Tatsache, dass Bewerbungsgesprächssysteme Frauen diskriminieren, unabhängig davon, was die Programmierer tun, weil ihre Werkzeuge zu einfach sind.
Ich möchte, dass wir eine bessere KI haben. Ich möchte nicht, dass der „Winter der künstlichen Intelligenz“ beginnt, wenn die Leute erkennen, dass KI nicht funktioniert und nur gefährlich ist, und sie wollen es nicht reparieren.
In gewisser Weise scheint Ihr Buch wirklich sehr optimistisch. Sie schlagen vor, dass Sie eine glaubwürdige KI aufbauen können. Wir müssen nur in eine andere Richtung schauen.Das Buch ist zwar kurzfristig sehr pessimistisch und langfristig sehr optimistisch. Wir glauben, dass alle von uns beschriebenen Probleme gelöst werden können, wenn wir uns die richtigen Antworten genauer ansehen. Und wir denken, dass die Welt in diesem Fall besser wird.