Es gibt Fähigkeiten, aber keinen Grund: Aufgaben, die die KI nicht bewältigen kann

„Das Auto muss entscheiden, wen es opfern soll - diejenigen, die sich im Auto befinden oder diejenigen, die unter die Räder stürzen“, erklärt Tatyana Gavrilova, Professorin am Institut für Informationstechnologie der St. Petersburg State University, welche Algorithmen der künstlichen Intelligenz zugrunde liegen und mit welchen Schwierigkeiten die Entwickler konfrontiert sind.

Vom lebenden Gehirn zur künstlichen Intelligenz


In den letzten fünf Jahren hat eine große Welle von Veröffentlichungen, Reden, Ängsten sowie Hype-Diskussionen, Hype und aggressiver Werbung um künstliche Intelligenz zugenommen. Dies deutet in erster Linie auf Spekulation und Obszönität hin. Nachrichtenportale, die miteinander wetteifern, erzählen, wie ein neuronales Netzwerk einen weiteren erstaunlichen Trick gelernt hat. Es versteht sich, dass ein künstliches neuronales Netzwerk kein Modell des Gehirns ist. Neurophysiologen stellen fest, dass der Mechanismus des Gehirns noch wenig verstanden ist und sein Modell weit von einer mathematischen Formalisierung entfernt ist.

2013 bewertete die Europäische Kommission das Forschungsprojekt Human Brain Project und stellte einen Forschungszuschuss in Höhe von 1 Mrd. USD zur Verfügung. Ziel dieses Projekts ist es, ein voll funktionsfähiges Computermodell des menschlichen Gehirns zu erstellen. Präsentieren Sie die Komplexität des Gehirns: Wie Neuronen sich verbinden und miteinander interagieren, wie Erinnerungen gebildet und Entscheidungen getroffen werden. Auf der Europäischen Konferenz im Jahr 2019 hielt der Neurowissenschaftler, Direktor und Gründer des Human Brain Project, Henry Markram, eine Präsentation. Er und das Team zeigten Bilder des Gehirns, die von verschiedenen Seiten auf einem Tomographen beleuchtet wurden, und betonten, dass je tiefer sie in das Gehirn eindrangen, desto weniger klar wurde, wie es funktioniert. Während dieser ganzen Zeit haben sie sich auf dem Weg der Miniaturisierung bewegt, aber es ist offensichtlich, dass sie ein Makromodell des Gehirns benötigen. Hier können Sie eine Analogie mit der bekannten Metapher ziehen: Egal wie viel die Ameise im Fernseher kroch, sie versteht immer noch nicht, um welche Art von Gerät es sich handelt.

Chatbots sprechen, verstehen aber nicht


Das erste Konversationsprogramm "Eliza" wurde bereits in den 60er Jahren entwickelt. Ihre Arbeit war wie eine Psychotherapie. Ein Beispieldialog könnte folgendermaßen aussehen:
- Guten Tag. Wie fühlen Sie sich?
- Kopfschmerzen.
- Wie oft passiert das?
"Jedes Mal, wenn ich mit meiner Mutter spreche."
"Du hast ein Problem mit deiner Mutter." Erzähl uns mehr darüber.

Das Programm enthält eine Reihe von Leerzeichen. Identifiziert das Schlüsselwort in jedem Satz und erzeugt die Illusion einer Konversation ohne jegliche Bedeutung. Auf diese Weise konnte Eliza mehrere Stunden lang gekonnt ein Gespräch führen und einen guten Eindruck auf die Menschen hinterlassen.

Die heutige Alice von Yandex ist dieselbe Elisa mit einer vernetzten Serviceplattform und einem viel umfangreicheren Wortschatz. Die ganze Intelligenz solcher Chat-Bots beruht auf Umschulungen. Wenn wir für sie markieren, dass die Antworten schlecht und ungeeignet sind, werden sie in Zukunft ausgesondert und gute bleiben, die geeignet sind. Die wahre Rationalität des Programms, seine Fähigkeit, nicht nur zu bestimmen, was auf dem Bild gezeigt wird, oder mündliche Sprache in Text umzuwandeln, sondern auch die Bedeutung von Information und Denken zu verstehen, wird nur dann sichtbar, wenn es mit einer Wissensbasis verbunden ist. Dies ist ein gewisses Verständnis der Weltordnung. Dies kann noch kein Programm. Künstliche Intelligenz, die mit einer Wissensbasis arbeitet, wird als symbolische KI (symbolische KI) bezeichnet.

Jetzt werden zwei Richtungen aktiv verwendet: künstliches neuronales Netzwerk und maschinelles Lernen. Ihre Entwicklung erfolgt nicht in wissenschaftlichen Labors unter Anleitung von Wissenschaftlern, sondern in IT-Unternehmen. Programmierer und Entwickler künstlicher neuronaler Netze geben zu, dass nichts außer dem Gehirn denkt. Wenn sie also ein intelligentes System schaffen wollen, müssen sie das Gehirn simulieren, weil es nichts mehr gibt. Ein entscheidender Durchbruch wird jedoch für diejenigen sein, die in der Lage sind, Modelle der Wissensrepräsentation und des maschinellen Lernens zu kreuzen.
Übrigens setzen einige Unternehmen Roboter bereits aktiv für die Vermittlung von Arbeitsplätzen ein. Sie eignen sich besonders gut für Massen-Screenings, bei denen mehr als 1000 Lebensläufe eingehen. Der Roboter analysiert die Fragebögen und bewertet die Kandidaten auf Relevanz, aber die endgültige Entscheidung wird immer noch von der Person getroffen. Wissenschaftler des Georgia Institute of Technology haben herausgefunden, in welchem ​​Fall Menschen dem Roboter bereitwillig vertrauen. Dies geschieht, wenn ihnen im Voraus mitgeteilt wird, dass sie für die Ausführung einer bestimmten Aufgabe ausgelegt sind. Solche Roboter führen auch Wochenendinterviews durch. Die Menschen führen einen offeneren Dialog mit der Maschine über die Gründe für die Entlassung und über die Schwierigkeiten, auf die sie im Arbeitsprozess gestoßen sind. Somit sammeln Roboter sehr gute und vor allem wichtige Rückmeldungen. Außerdem haben die Menschen Angst, einen Roboter anzulügen. Sie denken, Autos haben mehr Informationen. Die beiden Hauptfragen bei der Auswahl der Ladenbesitzer waren beispielsweise: Haben Sie eine Vorstrafe und trinken Sie Alkohol? Und Menschen ohne sich zu verstecken beantworteten diese Fragen an den Roboter.

Was ist los mit Drohnen


Moderne unbemannte Fahrzeuge sind unvollkommen und haben mehrere Nachteile. Das offensichtlichste liegt in der Bildverarbeitung. Das Problem liegt nicht einmal im technischen Bereich, das Problem der Bildverarbeitung wurde konzeptionell nicht gelöst. Kameras und Sensoren verarbeiten bestimmte Signale mit hoher Geschwindigkeit, wodurch im Speicher des Computers Binärbilder entstehen, die interpretiert werden müssen. Dies ist die Hauptschwierigkeit. Wenn zum Beispiel ein Fußgänger die Straße überquert, kann jeder Fahrer dies leicht berücksichtigen. Nicht weil seine Sicht besser ist als die einer Drohnenkamera, sondern weil der Fahrer ein Modell einer sich bewegenden Person im Kopf hat. Visionsmodelle existieren noch nicht. Es ist nicht bekannt, wie eine Person visuelle Informationen verarbeitet. Es werden Modellierungsgeräte entwickelt, die es mit einem gewissen Maß an Sicherheit ermöglichen, eine Reihe von Objekten zu erkennen.

Stellen Sie sich vor, Sie haben eine Person, die in Autos nichts versteht, gebeten, den Querlenker mitzubringen. Offensichtlich wird er dazu nicht in der Lage sein. Weil er kein Automechaniker ist und kein Hebelmodell im Kopf hat. Aber wenn Sie sagen, dass dies ein Stück Eisen mit einer gebogenen Form ist, wird eine Person es bringen. Jeder weiß, was ein Stück Eisen ist, und versteht, wie eine „gebogene Form“ aussieht. Auch nach der Erklärung wird der Roboter nicht fertig. Dazu müssen Sie ihn trainieren und die Konzepte all dieser Objekte aus verschiedenen Winkeln und mit unterschiedlichen Zugriffsgraden festlegen.

Im Büro muss eine Person den Stuhl nicht vom Tisch wegbewegen, um den Gegenstand zu identifizieren. Schau einfach auf die Rückseite. Nur weil die Leute ein vollständiges Modell des Stuhls haben und wir in einem Teil davon das Ganze nachbauen. Wir wissen, dass ein Stuhl ein wesentliches Merkmal eines Bürointerieurs ist. Daher wählen wir aus einer großen Auswahl von Objekten, die aus diesem Fragment neu erstellt werden können, eines aus. Es gibt keine universellen Programme, die dies tun könnten. Keine künstliche Intelligenz enthält jetzt ein Modell der Welt und des Wissens, das es ihr ermöglicht, das Bild, das sie sieht, eindeutig zu interpretieren.

Angenommen, irgendwo hinter den Büschen versteckte sich ein Mann, der bereit war, auf die Straße zu rennen. Ein Teil seines Körpers ist hinter dichtem Laub versteckt. Der sichtbare Teil reicht nicht aus, damit die Maschine dies als potenzielle Gefahr betrachten kann. Wenn Sie außerdem einen Elefanten sehen, der sich hinter den Büschen versteckt, entscheiden Sie wahrscheinlich, dass dies ein Mann mit einer Elefantenmaske ist, da in unserer Region keine Elefanten gefunden werden. Nun, das Auto hat dieses Wissen sicherlich nicht.

Das Problem der Interpretationen nähert sich seiner Lösung, auf jeden Fall gibt es Fortschritte. Im maschinellen Lernalgorithmus für große Stichproben können Sie 100 Autos platzieren, und es ist klar, dass 101, selbst von einer anderen Marke, mit hoher Wahrscheinlichkeit das Programm korrekt erkennt. Obwohl dieses Auto nicht speziell darin festgelegt wird. Es ist auch erwähnenswert, dass es für die Ausbildung des Programms wichtig ist, die Vielfalt der Auswahl zu beachten. Wenn Sie zum Beispiel das Programm nur in Limousinen lernen und dann ein Cabrio vorfährt, wird es es wahrscheinlich nicht erkennen, da es in der Stichprobe keine Autos ohne Dach gab.

Die zweite Herausforderung ist ein ethisches Dilemma, in dem eine Maschine eine moralische Entscheidung treffen muss. Angenommen, unbemannte Fahrzeuge befördern einen Passagier. Ein Mann sprang heraus, um sich zu treffen, und der einzige Weg, eine Kollision zu vermeiden, bestand darin, in eine nahe gelegene Säule zu fahren. Das Auto muss entscheiden, wen es opfern soll - diejenigen, die sich im Auto befinden, oder diejenigen, die unter die Räder stürzen. Dies ist eine absolut unlösbare Aufgabe für sie. Es gibt bereits erste Unfälle und sogar Opfer. In Arizona traf ein unbemannter SUV in Uber-Besitz einen Fußgänger zu Tode. Ihr Fehler ist, dass sie einen groben Algorithmus veröffentlicht haben, der nicht alle Tests auf der Strecke bestanden hat.

Das Problem der Drohnen ist vor allem das Fehlen grundlegender Vorstellungen über die Welt. Menschen treffen Entscheidungen immer im Kontext. Keine künstliche Intelligenz hat ein vollständiges Bild der Welt, die eine Person im Alter von 18 Jahren hat. Aus diesem Grund wird ein Führerschein genau ab dem 18. Lebensjahr [in Russland] ausgestellt, obwohl die Vision bereits mit 14 Jahren gut formuliert ist. Vor Erreichen des Erwachsenenalters kann eine Person keine fundierten Entscheidungen treffen, auch keine ethischen und emotionalen.

Wir haben es mit sehr jungen und unreifen Algorithmen zu tun, die verfeinert werden müssen. Sie können richtig arbeiten, aber ausschließlich unter menschlicher Kontrolle.

Polygraphische künstliche Intelligenz


Auf dem Markt für künstliche Intelligenz investieren die weltweit führenden Unternehmen aktiv in den Bereich Emotional Computing. Diese Technologie zeigt die unsichtbarsten Veränderungen im Gesichtsausdruck. Das Programm wählt eine bestimmte Anzahl von Punkten im Gesicht aus und vergleicht sie mit der Datenbank von Fotografien, in denen die Emotion bereits erkannt wird.

Microsoft sagte, dass sie einen ähnlichen Algorithmus haben, aber er wird ihn nicht an die Regierung weitergeben. Dies ist ein sehr gefährliches Werkzeug, das gegen Menschen eingesetzt werden kann. Stellen Sie sich vor, Sie betreten das Büro des Chefs und er sieht, dass Sie ihn hassen und schlecht über ihn denken. Es gibt ein ernstes ethisches Problem.

Es wird viel mehr ähnliche Programme von "Erkennern" geben. Schön, wunderbar inklusive. Sie werden besonders in der Medizin nützlich sein. Autos helfen Ärzten bereits bei der Diagnose von Krankheiten. Nehmen wir an, das amerikanische IBM Watson-Programm macht Diagnosediagnosen besser als einige unerfahrene Ärzte. Als Trainingsstichprobe wurden sechstausend Fallbeispiele darin abgelegt. Dies ist eine titanische Arbeit und natürlich viel Geld.

Kann die Maschine komponieren?


Die Maschine kann qualitativ nichts Neues erzeugen. Originaltexte, Verse, musikalische Kompositionen - all dies basiert auf dem Prinzip der Permutation oder einfacher Permutation. In Bezug auf die Poesie lautet der Aktionsalgorithmus wie folgt: Das Programm findet gemeinsame Momente und bestimmte Kombinationen. Er nimmt Schlüsselwörter, fügt ihnen die Wörter anderer Autoren hinzu und dreht sie im gewünschten Rhythmus. Die russische Sprache ist komplex, aber wenn Sie sich nicht für Reime interessieren, können Sie einen weißen Vers „verfassen“.

Mit Musik ist es noch einfacher. Das Programm bestimmt, welche Akkorde für einen bestimmten Künstler am charakteristischsten sind, und verwendet sie, jedoch in einer anderen Reihenfolge. Die Grundlage dieser "Kreativität" ist das Mischen der Skala und die Ablehnung offener Kakophonie.
Es gab Programme, die Volksmärchen komponierten. Zu diesem Zweck haben wir eine Analyse der Szenarien mit dem Buch von Vladimir Propp „Morphology of a Tale“ durchgeführt. Es stellte sich heraus, dass das Modell der Entwicklung von Ereignissen mehrere offensichtliche Elemente enthält: Märchen haben immer positive und negative Charaktere. Es gibt auch einen Spender, eine Straße, ein Hindernis und ein Happy End am Ende. Eine Besonderheit solcher Geschichten war der Eklektizismus. Das Programm kombinierte die Helden und ihre Aktionen und erzählte zum Beispiel von Ivan dem Narren, der mit der Schlange Gorynych kämpft. Ein absoluter Nachteil war die schlechte Sprache der Geschichte. Die Zuhörer langweilten sich. Ein lebender Geschichtenerzähler wird immer Humor und eine amüsante Sprachgeschwindigkeit hinzufügen. Aus dem gleichen Grund kann das Programm keine Metaphern oder Ausdruckseinheiten in andere Sprachen übersetzen. Online-Übersetzer arbeiten mit großen Informationsmengen. Es ist erwähnenswert, dass sich die Qualität ihrer Übersetzung in den letzten Jahren erheblich verbessert hat. Jetzt übersetzen sie nicht wie zuvor jedes Wort einzeln, sondern suchen irgendwo in den Texten nach einem ganzen Satz. Die größte Schwierigkeit ergibt sich aus der Semantik. Dies erfordert eine Wissensbasis, um die Bedeutung von Ausdrücken zu verstehen. Zum Beispiel: Hühner sind zum Abendessen bereit. Es ist unklar, wie dieser Satz richtig übersetzt werden soll, wenn Sie nicht wissen, wo sich die Person gerade befindet - auf der Hühnerfarm (Hühner sind zum Abendessen bereit) oder in einem Restaurant (Hühner sind zum Mittagessen vorbereitet).

Ohne menschliches Wissen ist keine intellektuelle Aktivität möglich. Wissen kann durch nichts ersetzt werden. Die Frage ist, wie diese Fähigkeiten digitalisiert werden können. Wie man Erfahrung in ein aussagekräftiges Schema verwandelt, das mit der Maschine geteilt werden kann.

Source: https://habr.com/ru/post/de473564/


All Articles