
Letztes Jahr begann ein seltsames Robomobil auf den Straßen von Monmouth County, New Jersey, zu fahren. Dieses von Nvidias Spezialisten entwickelte Versuchsfahrzeug unterscheidet sich im Aussehen nicht von anderen autonomen Fahrzeugen anderer Hersteller wie Google, Tesla oder General Motors. Speziell für dieses Auto wurde ein neues Steuerungssystem entwickelt. Sie lernt sich selbst und hängt nicht von den in der Produktion festgelegten Einstellungen ab. Stattdessen überwacht das Robomobil die Handlungen des menschlichen Fahrers und lernt von ihm.
Dies ist eine etwas ungewöhnliche Art, ein Robomobil zu trainieren. Auf der anderen Seite stellen sich nur wenige Menschen vor, wie die Maschine Entscheidungen trifft. Informationen von Sensoren, Radaren und Lidaren gelangen in das neuronale Netzwerk, wo diese Daten unter Zuweisung klarer Regeln für die Steuerung von Lenkrad, Bremsen und anderen Systemen verarbeitet werden. Infolgedessen stellt sich heraus, dass die Aktionen des Robomobils häufig den Aktionen eines menschlichen Fahrers ähneln, der auf der Straße in dieselbe Situation geraten ist. Es stellt sich die Frage: Kann das Auto in einem der Fälle eine seltsame Entscheidung treffen? Zum Beispiel mit voller Geschwindigkeit gegen einen Baum stoßen oder an einer Ampel stehen, wenn die grüne Ampel leuchtet?
Informationen zur Verarbeitung eines neuronalen Netzwerks können mit einer Black Box verglichen werden. Nein, natürlich stellen sich Experten das Prinzip der Datenverarbeitung durch ein neuronales Netzwerk allgemein vor. Das Problem ist jedoch, dass das Selbsttraining kein vollständig vorgegebener Prozess ist, so dass manchmal absolut unerwartete Ergebnisse am Ausgang erwartet werden können. Im Zentrum von allem steht das tiefe Lernen, das es uns bereits ermöglicht hat, eine Reihe wichtiger Probleme zu lösen, darunter Bildverarbeitung, Spracherkennung und Übersetzung. Es ist möglich, dass neuronale Netze in der Lage sind, Krankheiten frühzeitig zu diagnostizieren, beim Handel an der Börse die richtigen Entscheidungen zu treffen und Hunderte anderer wichtiger menschlicher Handlungen auszuführen.
Aber zuerst müssen Sie Wege finden, die besser verstehen, was im neuronalen Netzwerk selbst bei der Datenverarbeitung geschieht. Andernfalls ist es schwierig, wenn überhaupt möglich, die möglichen Fehler von Systemen mit einer schwachen Form von KI vorherzusagen. Und solche Fehler werden es sicherlich sein. Dies ist einer der Gründe, warum das Auto von Nvidia noch getestet wird.
Eine Person wendet jetzt mathematische Modelle an, um die Auswahl für sich selbst zu erleichtern - zum Beispiel um einen zuverlässigen Kreditnehmer zu bestimmen oder um einen Mitarbeiter mit der notwendigen Erfahrung für irgendeine Art von Arbeit zu finden. Im Allgemeinen sind die mathematischen Modelle und Prozesse, die sie verwenden, relativ einfach und unkompliziert. Aber Militär-, Handelsunternehmen und Wissenschaftler verwenden heute viel komplexere Systeme, deren "Entscheidungen" nicht auf den Ergebnissen eines oder zweier Modelle beruhen. Deep Learning unterscheidet sich von den üblichen Prinzipien des Computerbetriebs. Laut Tommy Jaakol, Professor am MIT, wird dieses Problem immer relevanter. "Was auch immer Sie tun, treffen Sie eine Entscheidung über die Investitionen, versuchen Sie eine Diagnose zu stellen, wählen Sie einen Angriffspunkt auf dem Schlachtfeld, all dies sollte nicht von der Black-Box-Methode abhängen", sagt er.
Dies wird nicht nur von Wissenschaftlern, sondern auch von Beamten verstanden. Ab dem nächsten Sommer führt die Europäische Union neue Regeln für Entwickler und Anbieter automatisierter Computersystemlösungen ein. Vertreter solcher Unternehmen müssen den Benutzern erklären, wie das System funktioniert und nach welchen grundsätzlichen Entscheidungen getroffen wird. Das Problem ist, dass dies möglicherweise nicht möglich ist. Ja, es ist möglich, die Grundprinzipien des Betriebs neuronaler Netze problemlos zu erklären, aber nur wenige können genau sagen, was dort während der Verarbeitung komplexer Informationen passiert. Selbst die Schöpfer solcher Systeme können nicht alles „von und nach“ erklären, da die Prozesse, die während der Verarbeitung von Informationen im neuronalen Netzwerk ablaufen, sehr komplex sind.
Nie zuvor hat ein Mensch Maschinen gebaut, deren Funktionsprinzip von den Entwicklern selbst nicht vollständig verstanden wird und sich stark von der Art und Weise unterscheidet, wie Informationen von der Person selbst verwendet werden. Können wir also eine normale Interaktion mit Maschinen erwarten, deren Betrieb nicht vorhersehbar ist?

Gemälde des Künstlers Adam Ferriss mit Google Deep Dream
Im Jahr 2015 verwendete das Forschungsteam des Mount Sinai Hospital aus New York Deep Learning, um eine Datenbank mit Patientenakten zu verarbeiten. Die Datenbank enthielt Informationen zu Tausenden von Patienten mit Hunderten von Informationszeilen für jede Person, wie z. B. Testergebnisse, Datum des Arztbesuchs usw. Infolgedessen erschien das Deep Patient-Programm, das am Beispiel von Aufzeichnungen von 700.000 Menschen geschult wurde. Die Ergebnisse dieses Programms waren ungewöhnlich gut. Zum Beispiel konnte sie das Auftreten einiger Krankheiten bei einer Reihe von Patienten frühzeitig vorhersagen.
Die Ergebnisse erwiesen sich jedoch als etwas seltsam. Zum Beispiel begann das System, Schizophrenie perfekt zu diagnostizieren. Aber auch für erfahrene Psychiater ist die Diagnose von Schizophrenie ein komplexes Problem. Aber der Computer kam mit einem Knall zurecht. Warum? Niemand kann es erklären, nicht einmal die Schöpfer des Systems.
Anfangs wurden KI-Entwickler in zwei Lager aufgeteilt. Befürworter des ersten sagten, dass die Maschine so programmiert werden muss, dass alle im System ablaufenden Prozesse gesehen und verstanden werden können. Das zweite Lager hielt an der Idee fest, dass die Maschine von selbst lernen sollte, indem sie Daten aus der maximalen Anzahl von Quellen empfing und anschließend diese Daten unabhängig verarbeitete. Das heißt, Befürworter dieses Standpunkts schlugen tatsächlich vor, dass jedes neuronale Netzwerk "sein eigener Chef" sein sollte.
All dies blieb reine Theorie bis zu dem gegenwärtigen Moment, als Computer leistungsfähig genug wurden, damit Experten für künstliche Intelligenz und neuronale Netze beginnen konnten, ihre Ideen in die Praxis umzusetzen. In den letzten zehn Jahren wurde eine Vielzahl von Ideen umgesetzt. Es wurden hervorragende Dienstleistungen erbracht, mit denen Texte von einer Sprache in eine andere übersetzt, Sprache erkannt, ein Videostream in Echtzeit verarbeitet, mit Finanzdaten gearbeitet und Produktionsprozesse optimiert werden können.

Das Problem ist jedoch, dass fast jede Technologie des maschinellen Lernens für Spezialisten nicht zu transparent ist. Bei der "manuellen" Programmierung ist die Situation viel einfacher. Natürlich kann man nicht sagen, dass zukünftige Systeme für niemanden unverständlich sein werden. Aber tiefes Lernen ist von Natur aus eine Art Black Box.
Sie können nicht nur die Prinzipien des neuronalen Netzwerks betrachten und das Ergebnis vorhersagen, das wir durch die Verarbeitung einer Art Datenarray erhalten. In der „Black Box“ befinden sich Dutzende und Hunderte von „Schichten von Neuronen“, die in einer ziemlich komplizierten Reihenfolge miteinander verbunden sind. Darüber hinaus ist der Wert für das Endergebnis nicht nur die Arbeit der Schichten, sondern auch der einzelnen Neuronen. In den meisten Fällen kann eine Person nicht vorhersagen, was am Ausgang eines neuronalen Netzwerks erscheinen wird.
Ein Beispiel dafür, wie sich ein neuronales Netzwerk von einem menschlichen Gehirn unterscheidet, ist das Deep Dream-System. Dies ist ein Google-Projekt, ein neuronales Netzwerk, in das ein reguläres Foto eingeführt wurde und das das Ziel hat, dieses Foto gemäß einem bestimmten Thema zu konvertieren. Lassen Sie zum Beispiel alle Objekte auf dem Bild wie Hunde aussehen. Die Ergebnisse beeindruckten alle. Irgendwie wurde die Aufgabe, ein Hantelbild zu erzeugen, in das System eingeführt. Das System kam zurecht, aber in allen Fällen wurden die Hände von Menschen zur Hantel gezogen - das neuronale Netzwerk entschied, dass der Hantelarm ein einzelnes System ist, das nicht als zwei separate Elemente betrachtet werden kann.

Experten glauben, dass es notwendig ist, besser zu verstehen, wie solche Systeme funktionieren. Dies ist aus dem einfachen Grund notwendig, dass sie beginnen, neuronale Netze in immer wichtigeren Bereichen zu verwenden, in denen ein Fehler zu einem traurigen Ende führen kann (Wertpapierhandel ist ein Beispiel). „Wenn Sie ein kleines neuronales Netzwerk haben, können Sie perfekt verstehen, wie es funktioniert. Wenn ein neuronales Netzwerk wächst, steigt die Anzahl der darin enthaltenen Elemente auf Hunderttausende von Neuronen pro Schicht mit Hunderten von Schichten - in diesem Fall wird es unvorhersehbar “, sagt Jaakkola.
Trotzdem müssen neuronale Netze in der Arbeit in derselben Medizin verwendet werden. Ärzte unterschätzen die Wichtigkeit vieler Daten. Eine Person ist einfach nicht in der Lage, ihre Augen zu erfassen und die Verbindungen zwischen Hunderten von Aufzeichnungen in der Krankengeschichte des Patienten zu finden. Und die Maschine - vielleicht ist dies der große Wert neuronaler Netze und des tiefen Lernens im Allgemeinen.
Das US-Militär hat Milliarden von Dollar in die Entwicklung automatischer Drohnensteuerungssysteme, die Identifizierung und Identifizierung verschiedener Objekte und die Datenanalyse investiert. Das Militär ist jedoch der Ansicht, dass die Arbeit solcher Systeme verständlich und erklärbar sein sollte. Dieselben Soldaten, die in einem automatisch gesteuerten Panzer eingeschlossen sind, fühlen sich sehr unwohl, wenn sie nicht verstehen, wie und was funktioniert, warum das System eine solche Entscheidung getroffen hat und nicht eine andere.
Vielleicht werden diese Systeme in Zukunft ihre Handlungen erklären. Zum Beispiel hat Carlos Guestrin, Professor an der University of Washington, ein Computersystem entwickelt, das die Zwischenergebnisse seiner Berechnungen erklärt. Mit diesem System können elektronische Nachrichten analysiert werden. Wenn einer von ihnen von einem Computer als von einem bedingten Terroristen gesendet ausgewertet wird, wird eine Erklärung gegeben, warum eine solche Schlussfolgerung gezogen wird.
Nach Ansicht des Wissenschaftlers sollten die Erklärungen recht einfach und verständlich sein. "Wir haben den Traum noch nicht erreicht, in dem AI nur mit Ihnen spricht und erklären kann", sagt Guestrin. "Wir stehen erst am Anfang eines langen Weges zur Schaffung einer transparenten KI."
Das Verständnis der Gründe, die KI zu einem bestimmten Ergebnis geführt haben, ist wichtig, wenn wir KI zu einem Teil unseres Lebens und zu einem nützlichen Teil machen wollen. Dies gilt nicht nur für das Militär, sondern auch für Siri oder andere digitale Assistenten. Wenn Sie beispielsweise Siri bitten, eine Auswahl von Restaurants in der Nähe anzugeben, möchten viele verstehen, warum diese Restaurants angezeigt werden, und nicht andere. Ein wichtiges Kriterium für die Implementierung von KI ist das Vertrauen des Menschen in Computersysteme.
Wahrscheinlich ist es immer noch unmöglich, den Computer alle seine Handlungen und Entscheidungen erklären zu lassen - zum Beispiel sind die Handlungen und Entscheidungen einer Person oft nicht zu verstehen. Sie hängen von einer Vielzahl von Faktoren ab. Und je komplexer das neuronale Netzwerk ist, desto mehr solche Faktoren werden berücksichtigt und analysiert.
Dies wirft eine Reihe komplexer Fragen ethischer und sozialer Natur auf. Zum Beispiel ist es für dasselbe Militär bei der Herstellung automatisierter Panzer und anderer Tötungsmaschinen wichtig, dass ihre Entscheidungen den ethischen Standards des Menschen entsprechen. Tatsächlich entspricht das Töten selbst möglicherweise nicht den ethischen Standards vieler von uns. Diese Entscheidungen sollten jedoch zumindest für die Mehrheit akzeptabel sein. Was ist diese Mehrheit? Auch eine Frage.
Daniel Dennett, ein Philosoph von der Tufts University, sagt Folgendes: „Ich glaube, wenn wir diese Dinge nutzen und von ihnen abhängen wollen, müssen wir verstehen, wie und warum sie sich so verhalten und nicht anders. Wenn sie uns nicht besser erklären können, was sie tun, dann vertraue ihnen nicht. "