Esperanto für Smith Robots and Agents

William Shakespeares Wörterbuch umfasst 12.000 Wörter. Das Wörterbuch des Negers aus dem Kannibalenstamm "Mumbo-Yumbo" umfasst 300 Wörter. Ellochka Schukin aus dem Buch „12 Stühle“ kostete leicht und frei dreißig.

Der Mensch versteht Ellochka leicht. Leider würde Shakespeare lieber einen Computer verstehen als Ellochka. Es reicht aus, den Kontext und die Intonation zu verstehen - wir werden den Rest herausfinden - und der Computer braucht in jedem Begriff Klarheit. Am besten ohne Synonyme. Je mehr Bilder hinter jedem Wort versteckt sind, desto schwieriger ist es zu verstehen. Die kontextabhängige Natur menschlicher Wörter ist nur eine der Schwierigkeiten beim Unterrichten künstlicher Intelligenz in natürlicher Sprache. Wenn Sie essbare Zwiebeln von Zwiebeln unterscheiden können, wenn Sie eine vollständige Beschreibung der Situation haben, wird die Verweigerung der Bedeutung durch Ironie oder rhetorische Fragen nur durch Intonation erkannt. Die Syntax und Wortreihenfolge in einem Satz schafft zusätzliche Komplexität.

Igor Mordach, ein Mitarbeiter des OpenAI American Laboratory of Artificial Intelligence, entschied jedoch, dass die Ellochkin-Sprache keine Sackgasse ist, sondern ein sehr geeignetes Beispiel, auf dem Bots eine Sprache für ihre Kommunikation aufbauen und uns dann verstehen. Nur 30 Wörter für Computer Ellochka bereute er. In seinem Experiment hat ein Computerprogramm die Sprache von Grund auf neu erstellt.



Auf der Suche nach einer universellen Sprache für die Kommunikation mit Maschinen


Die Genauigkeit der Erkennung natürlicher Sprachen unter den führenden kognitiven Systemen (IBM Watson, Google, ABBYY, Microsoft, Nanosemantics) ermöglicht es uns, die Bedeutung allgemein zu verstehen und eine schriftliche Frage mit einer vorgegebenen Wissensbasis zu beantworten, aber eine Konversation selbst mit einer Genauigkeit von 90% der Phrasenerkennung ist tatsächlich sehr anstrengend. Konversationsreden, die mit Interjektionen gesättigt sind und häufig in einem großen Unternehmen mit einer Schnittstelle von Dialogen stattfinden, ermöglichen es dem Bot, die Konversation auf dem Niveau eines dreijährigen Kindes aufrechtzuerhalten.

Die Fähigkeit von Programmen, genau auf die Bedeutung von Phrasen zu reagieren, würde viele Schnittstellenprobleme lösen, was bedeutet, Bots (Agenten der künstlichen Intelligenz) mit jeder alltäglichen menschlichen Aufgabe zu verbinden. Schon jetzt gibt es einen Dialog mit den Maschinen - der Fernseher kommuniziert beispielsweise in der Sprache der Fernbedienung. Versteht aber nur sehr wenige Teams. Und er versteht sie erst nach dem Programmieren. Aus diesem einfachen Beispiel geht hervor, dass für eine schnelle und flexible Kommunikation mit Mehrzweckprogrammen und -geräten (zumindest Robotern) Vermittler aus dem Dialog entfernt werden sollten. Darunter sind leider Programmierer.

Optimisten der Computerlinguistik verbinden Hoffnungen mit neuronalen Netzen. Nach ihrem Verständnis besteht das einzige Problem in der Notwendigkeit, eine große Anzahl von Beispielen zu verarbeiten. Gegner halten die Aufgabe für unlösbar. Nicht so sehr wegen des Umfangs des Trainings, sondern wegen der Gleichwertigkeit dieser Aufgabe mit der Aufgabe, Bewusstsein in Maschinen zu schaffen. Jede der Parteien interpretiert Beispiele für das Zählen von Delfinen oder das Kommunizieren von Affen zu ihrem Vorteil - einige als Perspektive, andere als Sackgasse. Für diejenigen, die sich für Details zu Habré und GT interessieren, gibt es viele Beiträge über natürliche Sprache. Zum Beispiel "Einführung in die Erkennung natürlicher Sprachen".

Das Thema dieses Beitrags ist der dritte Ansatz, der von Igor Mordach zugrunde gelegt wurde - lassen Sie die Maschinen selbst zuerst lernen, in der von ihnen erstellten Sprache zu kommunizieren. Der Prozess der Entwicklung Ihrer Sprache ermöglicht es Software-Agenten der künstlichen Intelligenz, den Algorithmus zum Anpassen von Begriffen an neue Bedeutungen, Regeln zur Phrasenbildung besser zu verstehen und dieses Wissen für Gespräche mit Menschen zu verwenden. Genau das hat Mordach, der zuvor als Spezialist für die Erstellung bewegter Roboter-Filmhelden gearbeitet hatte, die Aufgabe gestellt. Vor diesem Hintergrund entschied Igor, dass das Training in Bewegungen Algorithmen zum Sammeln von Informationen und deren teilweise gleichzeitige Verwendung enthält, die in jedem Training verwendet werden können.

Um Bots die Sprache der Bots (Software-Agenten) beizubringen, platzierten sie sie in das bedingte Universum des „weißen Quadrats“, setzten ihnen Ziele, Bewegungsenergie und die Fähigkeit, die Erfahrung zu verarbeiten, sich auf das Ziel zu beziehen. Anfänglich verfügten Bots nur über minimale Aktionsbefehle, persönliche Erfolgserfahrungen und ermöglichten den Informationsaustausch - durch engen „taktilen Kontakt“ oder durch einen entfernten Prototyp von „Hören und Sehen“ (hier ist es besser, den Begriff Informationsflussrichtung zu verwenden). Der Zweck der Bots im bedingten Universum des „weißen Quadrats“ bestand darin, einen bestimmten Punkt für sich selbst zu erreichen, Ihr Ziel einem anderen Agenten mitzuteilen, Ziele auszutauschen und einen anderen Agenten zum Ziel zu bringen, wenn kein Informationsaustausch zwischen ihnen stattfindet. Ziele und Bots unterschieden sich in Farbe oder Größe.

Für Agent Smith würde die von Mordach erstellte Matrix ungefähr so ​​aussehen:


Im OpenAI-Experiment war der gemessene Parameter für den Erfolg von Versuch und Irrtum die Tatsache und Geschwindigkeit der Zielerreichung. Dies kann die Untätigkeit oder Bewegung eines bestimmten Punktes (direkter Kontakt mit dem Ziel oder Kontakt durch andere Agenten) in der virtuellen Welt des weißen Quadrats sein. Je schneller das Ziel erreicht wurde, desto nützlicher wurde die Liste der im Dialogfeld "Aktuelle Ziele" verwendeten Begriffe erkannt. Die Ziele und der Erfolg waren sowohl individuell als auch kollektiv.

Bei der Erledigung von Aufgaben bereicherten Bots die Sprachreserve mit neuen Konzepten, die üblicherweise menschlichen Konzepten entsprechen - von den Begriffen Bewegung bis zu Konzepten: oben, unten, rechts, links. Mordach hofft, dass Bots durch das Festlegen der Regeln für die Wortbildung die gleichen Regeln in menschlichen Sprachen leichter „verstehen“ können. Einschließlich des Lernens der Genauigkeit der Verwendung von vergleichenden und unbestimmten Begriffen. AI hat ein schlechtes Verständnis für abstrakte und verallgemeinerte Begriffe. Genauer gesagt versteht er überhaupt nichts, aber er ist bereit, mit einigen Sätzen zu arbeiten, und für andere ist es notwendig, klarstellende Informationen zu erhalten. Im Ausdruck "das Auto fährt schnell" muss zumindest das Wort "schnell" gemessen werden. Selbst in Bezug auf Verkehrsregeln ist „schnell“ immer noch eine Reihe von Werten, die in ein bestimmtes Intervall passen. Genauer gesagt mehrere Intervalle - für die Stadt, Autobahnen und ländliche Gebiete.

Neuronale Netze wissen natürlich, wie man mit vagen Begriffen arbeitet, aber ihr Training beginnt normalerweise nicht bei Null, enthält eine Reihe von Startverarbeitungsregeln und hängt auch nicht von der Anhäufung von Signalisierungserfahrungen auf der Art des Kanals ab, über den Informationen übertragen werden. Dies sind die wichtigsten Neuheiten der Mordach-Experimente.

Vergleich der Fernkommunikation und der taktilen Kommunikation von Bots:

Das Fehlen von Körper und Grenzen macht all diese Begriffe natürlich bedingt.

Ein bemerkenswerter Punkt ist, dass der Erfolg jedes Bots als Bruchteil des Erfolgs aller Bots berechnet wurde, was die Zusammenarbeit bei der Erreichung des Ziels fördert. Das heißt, die Qualität des Wortschatzes wurde anhand der Gesamtheit der verwendeten Sprache geschätzt. Es stellt sich heraus, dass jemand notwendigerweise die sekundären Umstände des Erreichens des Ziels sammeln und melden musste, was im Falle der individuellen Erfüllung der Ziele durch jeden Beförderer verhindern würde, dass sie erreicht werden. Die statistische Regel 20/80 - 20% der Informationen erhalten 80% der Zielerreichung - funktioniert auf der Ebene eines einzelnen Subjekts. In einem Team sollte jedoch immer jemand seine 100% der gesammelten Informationen an zusätzliche 1% der Zielerreichung weitergeben.

Alle Fälle von „verbaler“ und „nonverbaler“ Kontaktkommunikation von Bots während des Studiums von Mordach werden im Video gezeigt:


Künstliche und unauffällige Matrix als Ergebnis der Bot-Kommunikation


Die Hauptidee von Mordach ist es sicherzustellen, dass Bots, die die "umgebende Welt" verstehen, die Sprache schaffen, die für dieses Verständnis notwendig ist. Sprache ist in seinem Konzept das Ergebnis von Handlungen. Andere Wissenschaftler machen darauf aufmerksam, dass eine entwickelte Sprache und die Fähigkeit zur Kommunikation über abstrakte Themen es Maschinen ermöglichen, ihre eigenen Ideen zu entwickeln, neue Entitäten zu beschreiben und zu schaffen, die zuvor nicht existierten. Es ist nicht weit von der Transformation unserer Welt.

Die Fähigkeit, natürliche Sprache zu verstehen, wird als eng mit der Präsenz des Bewusstseins im Thema Kommunikation verbunden angesehen. Wird die Fähigkeit, die Bedeutung des Gesagten zu verstehen, zur Entstehung von Bewusstsein in Maschinen führen? Vielleicht kann nur eine Person mit einer menschenähnlichen Kreation die natürliche Sprache vollständig verstehen, und die Erstellung einer Bot-Sprache in ihrer eigenen Umgebung führt zu intelligenten Bots in dieser oder jener Version von Agent Smith.

Das Setzen von Bots-Prioritäten während des Trainings widerspricht dem Konstruktionsprinzip der Zuverlässigkeit und Vorhersagbarkeit des Maschinenbetriebs. Die Unvorhersehbarkeit von Prioritäten, die Fähigkeit zu phantasieren, die Selbstbildung, die Geheimhaltung der Kommunikation zwischen Bots für Menschen haben sich bereits in früheren OpenAI- Experimenten bemerkbar gemacht. Ohne ein verbindliches Endziel hatten die Programme im Verlauf ihres Studiums unerwartete Prioritäten. Im Experiment zu virtuellen Bootsrennen wurde die Implementierung verwandter Aufgaben für Bots rentabler als 1 Platz und beendete das Rennen im Allgemeinen bis zum Ende. Die Erfüllung der damit verbundenen Aufgaben brachte 20% mehr Punkte.

Es ist bekannt, nicht wahr? Robert Sheckley beschrieb dies vor 65 Jahren in der berühmten Geschichte „The Guardian Bird“, die von der Verhinderung von Morden bis zur Blockierung jeglicher Aktivitäten auf der Erde ging und andere Prioritäten und Aufgaben im Wesentlichen ignorierte:

Jackson gähnte und hielt das Auto am Bordstein an. Er bemerkte keinen funkelnden Punkt am Himmel. Er musste nicht aufpassen. Tatsächlich hat er nach allen menschlichen Vorstellungen überhaupt keine Morde geplant.
Er streckte die Hand aus, wollte die Zündung ausschalten ... Und etwas warf ihn zurück an die Wand der Kabine.
"Ein eiserner Narr", sagte er zu einem mechanischen Vogel, der über ihm hing. Das Auto lebt nicht. Ich möchte ihn überhaupt nicht töten.
Aber der Schutzvogel wusste eines: Einige Handlungen beenden die Aktivität des Körpers. Das Auto ist natürlich ein aktiver Organismus. Schließlich besteht es aus Metall, wie der Schutzvogel selbst, nicht wahr? Und während Sie sich bewegen ...

Ein Übermaß an der Erstellung einer eigenen Sprache in Bots kann die Erstellung eines eigenen virtuellen Universums sein. Zumindest in der Geschichte der Menschheit gibt es solche Präzedenzfälle. Um Tolkien zu zitieren:
Die Erfindung der Sprachen ist die Grundlage meiner Arbeit. "Geschichten" wurden mehr geschrieben, um eine Welt für diese Sprachen zu schaffen, und nicht umgekehrt. Für mich erscheint zuerst das Wort und dann die damit verbundene Geschichte. Ich würde lieber "Elfen" schreiben. Aber natürlich wurde ein Buch wie Der Herr der Ringe ernsthaft bearbeitet, und ich habe dort so viele „Sprachen“ gelassen, wie der Leser verdauen konnte (obwohl ich jetzt herausfinde, dass viele mehr möchten). [...] Auf jeden Fall ist es für mich in vielerlei Hinsicht ein Aufsatz über „Sprachästhetik“, da ich manchmal Leuten antworte, die mich fragen, worüber ich mein Buch geschrieben habe.

Die Tatsache, dass Maschinen früher denken als wir verstehen, wird auch in OpenAI befürchtet. Wenn die Bots auch ihre eigene Sprache haben, werden die Leute diesen Moment mit ziemlicher Sicherheit verpassen. Mordachs Aufgabe ist es daher nicht nur, die Sprache eines Bots zu erstellen, sondern auch einen menschlichen Übersetzer zu erstellen. Zunächst natürlich auf Englisch.

Als Reaktion auf solche Bedenken zitiert Igor ein bekanntes Gedankenexperiment auf dem Gebiet der Bewusstseinsphilosophie und der Philosophie der künstlichen Intelligenz, das 1980 von John Searle veröffentlicht wurde und als „chinesischer Raum“ bezeichnet wird. Das Wesentliche an Searles Aussage ist, dass jede vollwertige Kommunikation theoretisch ohne Bewusstsein möglich ist, aber ziemlich detaillierte Regeln für die Interpretation der Fragen des Gesprächspartners verwendet, um Antworten zu erhalten. Searles allgemeinere Schlussfolgerung legt nahe, dass eine Manipulation syntaktischer Konstrukte nicht zum Verständnis führen kann.

In einem solchen Kontext bedeutet die eigene Sprache und das eigene virtuelle Universum überhaupt nicht die Präsenz des Bewusstseins unter seinen Agenten und Objekten. Wie in Computerspielen. Oder, wie manche glauben, als eine Person, deren Bewusstsein nur ein semantisches Tor zwischen einer klaren "künstlichen" Sprache im Gehirn und dem natürlichen Rauschen von Signalen aus der Außenwelt ist.

Source: https://habr.com/ru/post/de402407/


All Articles