WTM (Waveform Temporal Memory) - ein neuronales Netzwerkmodell zur Lösung des Problems des adaptiven Verhaltens



Ich präsentiere den Benutzern des Netzwerks ein neuronales Netzwerkmodell, das das Problem des adaptiven Verhaltens (und seine Unteraufgaben: Erkennung und Vorhersage von Sequenzen) lösen soll.

Vorwort


Ich habe diesen Bereich (KI und benachbarte) zufällig betreten: einen Artikel in meiner Freizeit, einen anderen, einen dritten, ein Buch, ein paar weitere Bücher, eine Monographie und so weiter. Als ich von der Populärliteratur zu aktuellen wissenschaftlichen Veröffentlichungen überging, kam mir der Gedanke: "Warum machen sie das falsch?" (KI-Manieren und adaptive Systeme sind bescheidener). Dann dachte ich, dass die grundlegenden Ideen, die sie in ihre Modelle einbauen, falsch sind (sie führen nicht zu den Ergebnissen, auf die der Autor hofft). Die Bekanntschaft mit den „falschen“ Modellen wurde fortgesetzt, und die Empörung nahm zu. Viel später fand ich „wahre“ Ideen in den Werken anderer Leute, aber es war zu spät, die Idee wurde geformt - die angesammelten Gedanken müssen zu einem Modell kombiniert werden. Über sie und wird diskutiert.

Einführung


Der Artikel ist in zwei große Teile gegliedert: Theorie und Implementierung von WTM.

Das Konzept der Anpassungsfähigkeit

Anpassungsfähigkeit wird als die Fähigkeit eines Steuerungssystems (CS) eines bestimmten autonomen Objekts bezeichnet, Kenntnisse über die Eigenschaften des Systems „Umgebung - Steuerobjekt - Steuerungssystem“ zu erlangen, dieses Wissen in seinem Speicher zu sammeln und dieses Wissen für eine angemessene Steuerung des Steuerobjekts (OS) zu verwenden.

Verfeinerungsbereich
. , , – , . - «» , , . -, , , - , ; , . -, , ; , , – , , – - , , – ad hoc. , . , , . , , , .. , , – , , .

Bestehende Modelle

Eine große Liste von Modellen und verwandten Informationen unter dem allgemeinen Namen kognitive Modelle finden Sie hier und hier .

Prinzipien des adaptiven Verhaltens

Für mich selbst habe ich die Mindestprinzipien festgelegt, die erforderlich sind, damit SU als adaptiv bezeichnet werden kann.

  • SU sollte sich kontinuierlich an Umweltereignisse anpassen.
  • SU sollte eine minimale Anzahl von angeborenen Verhaltenshandlungen oder Reflexen aufweisen. Basierend auf diesem Satz von SU beginnt der Anpassungsprozess.
  • SU sollte in der Lage sein, seine Erfahrungen auf andere Umweltsituationen zu übertragen.

Theoretischer Teil


Als Arbeitsbeispiel betrachten wir das Problem des adaptiven Verhaltens. Im Verlauf des Textes wird die Abkürzung WTM im Sinne von „einer Instanz des temporären Wellenspeichermodells“ verwendet.

Anpassung

Das Prinzip der kontinuierlichen Anpassung bedeutet, dass mit der Zeit die Durchführbarkeit von SU-Reaktionen zunehmen sollte. Hier stehen wir vor einer Gabel, die genauer betrachtet werden muss. Der Prozess der „Erhöhung der Zweckmäßigkeit“ ist bei aktiven und reaktiven Steuerungssystemen unterschiedlich.

Aktive Systeme haben ein Element, das für die Bewertung ihrer Funktionsweise verantwortlich ist. Es enthält die Zweckmäßigkeitskriterien, anhand derer die von der SU durchgeführten Maßnahmen bewertet werden. Basierend auf diesen Schätzungen werden Entscheidungen getroffen und das Verhalten des Systems geändert, um die Machbarkeitsindikatoren zu erhöhen.

Der Unterschied zwischen reaktiven Modellen besteht darin, dass sie keine Verhaltensbewertungseinheit enthalten. Aus diesem Grund ist es mit den gleichen Mitteln wie in aktiven Systemen unmöglich, die Zweckmäßigkeit des Verhaltens zu erhöhen. Daher ist es notwendig, andere Wege zu verwenden, um Zweckmäßigkeit zu erreichen.

Um diesen Unterschied besser zu verstehen, betrachten wir die Definition der Anpassungsfähigkeit genauer. Es kann in zwei Teile unterteilt werden:

  1. Während des Funktionierens erhöht die SU kontinuierlich die Abdeckung vieler Umweltereignisse mit geeigneten Reaktionen.
  2. Während des Funktionsprozesses ersetzt das Steuerungssystem kontinuierlich vorhandene Reaktionen durch andere, angemessenere

Im ersten Absatz gibt es keine Unterschiede zwischen aktiven und reaktiven Systemen. In beiden Fällen reduziert sich eine Erhöhung der Abdeckung auf eine Verallgemeinerung der vorhandenen Erfahrungen auf neue Umweltsituationen. Der Unterschied liegt im zweiten Absatz. Reaktive Systeme sind grundsätzlich nicht dazu in der Lage, da sie die Angemessenheit von Maßnahmen nicht bewerten können.

Es gibt zwei alternative Wege, um Zweckmäßigkeit zu erreichen.

  1. die Wahl eines solchen anfänglichen Satzes von Verhaltenshandlungen, nach deren Verallgemeinerung die grundlegenden Umweltsituationen für das Betriebssystem angemessene Reaktionen haben würden.
  2. Schulung SU angemessenes Verhalten durch das externe Umfeld (Bildung). In diesem Fall fungiert die Umgebung als aktiver Agent, der seine Auswirkungen auf das Betriebssystem aufbaut, sodass die erforderlichen Verhaltensmodelle gebildet werden.

Obwohl beide Methoden das gleiche Ziel verfolgen, unterscheiden sie sich sowohl in den erforderlichen Maßnahmen als auch in den Arbeitskosten erheblich.

Die erste Methode wird verwendet, um eine Reihe von Reaktionen zu erstellen. Allgemeiner Algorithmus:

  1. Führen Sie eine eingehende Analyse der zukünftigen Umgebung des Betriebssystems durch, um Schlüsselsituationen zu identifizieren, die angemessene Antworten erfordern.
  2. Finden Sie geeignete Reaktionen für die gefundenen Situationen.
  3. Erstellen Sie eine Instanz eines reaktiven Systems, in dem der Satz der Grundreaktionen aus den erhaltenen Situations-Reaktions-Paaren bestand.

Die zweite Methode wird verwendet, um eine Reaktion zu erzeugen. Allgemeiner Algorithmus:

  1. Der Entwickler muss einen komplexen Anreiz schaffen, auf den das gewünschte Verhalten reagiert
  2. Während des Funktionsprozesses muss der Entwickler, wenn die erforderliche Situation eintritt, mit dem erstellten Anreiz auf das Betriebssystem reagieren, damit die SU die erforderliche Reaktion ausführt.
  3. Wiederholen Sie Schritt 2, bis der Effekt behoben ist.

Der Vorteil der zweiten Methode besteht darin, dass sie jederzeit von den Robotern des Steuerungssystems verwendet werden kann, während die erste Methode nur in der Phase der Erstellung der Modellinstanz angewendet werden kann. Die Bedingung der zweiten Methode ist, dass der Entwickler den Satz von Reaktionen des Kontrollsystems kennt

Schulung

Das Lernen bei WTM besteht aus zwei Teilen: Hervorheben von Umgebungsmustern und Beibehalten der Reihenfolge der CS-Antworten auf diese Muster. Ansonsten ist Lernen der Prozess der Akkumulation von Paaren des Typs [Regelmäßigkeit der Umgebung - Reaktion].

Das Muster des Mediums ist eine häufig wiederholte Folge von Umgebungssignalen. Die Wiederholungshäufigkeit der zum Speichern erforderlichen Sequenz wird vom Entwickler in der Phase der Erstellung des Systems im WTM festgelegt (genauer gesagt im Punkt „Implementierung“).

Erhaltung von Reaktionsabläufen SU

Um sie zu erhalten, wird der Mechanismus der assoziativen Beziehungen verwendet.

Assoziative Verbindung ist ein Phänomen, bei dem die Aktivität eines Erinnerungselements (ES) die Aktivierung eines anderen ES bewirkt. Wir werden A → B bezeichnen, wobei A und B Speicherelemente sind. Assoziativer Übergang ist der Prozess der Implementierung assoziativer Kommunikation. Für die Assoziation A → B bedeutet ein assoziativer Übergang den Beginn der Aktivität B nach der Aktivität A.

Ein Speicherelement (EP) ist ein Muster (oder Muster) der Aktivität des neuronalen Netzwerks. Die Aktivierung kann als Reaktion auf ein Signal aus der Umgebung sowie aufgrund eines assoziativen Übergangs erfolgen. Es ist zu beachten, dass jede Reaktion eines neuronalen Netzwerks eine ES ist, aber nicht jede ES eine Reaktion eines Netzwerks. Unter der Aktivität von EP verstehen wir die Aktivität der Neuronen, die in EP eintreten.

Die Kraft der assoziativen Kommunikation ist ein numerischer Wert, der die Fähigkeit der assoziativen Kommunikation kennzeichnet, ihre endgültige EP zu aktivieren. Für die Assoziation A → B ist die Bindungskraft die Fähigkeit von A → B, B zu aktivieren. Sie nimmt reale Werte im Bereich [0, 1] an und bedeutet das Verhältnis der Anzahl der aktivierten Neuronen B zur Anzahl aller Neuronen B. Der Wert wird in der Implementierung nicht verwendet, ist jedoch zum Verständnis des Modells erforderlich .

Der Prozess der Erhaltung von Reaktionssequenzen von SU besteht in der kontinuierlichen Herstellung assoziativer Verbindungen zwischen aufeinanderfolgenden Reaktionen des Netzwerks auf Umweltsignale. Beim Erstellen einer assoziativen Verbindung wird ihr der Anfangswert der Kommunikationsstärke zugewiesen. Mit jedem wiederholten Auftreten von EP nimmt die Stärke der assoziativen Verbindung entsprechend der Speicherfunktion zu.

Isolierung von Mustern

Die Identifizierung von Mustern basiert auf dem Zusammenspiel der Funktionen des Auswendiglernen und Vergessens. WTM erinnert sich an alles. Je öfter ein Muster auftritt, desto stärker wird es (desto stärker sind die assoziativen Verbindungen in seiner Zusammensetzung). Gleichzeitig werden Muster vergessen. Je seltener ein Muster ist, desto schwächer wird es (desto stärker sind die assoziativen Verbindungen in seiner Zusammensetzung). Aus der Korrelation der Funktionen des Erinnerns und Vergessens folgt, welche Assoziationen im Gedächtnis bleiben und welche vergessen werden.

Hier wird es nicht schaden, ein Beispiel für die Korrelation der Funktionen des Auswendiglernen und Vergessens zu geben. Wir betrachten zwei Extremfälle. Der erste Fall - das Erinnern hat Vorrang vor dem Vergessen. Dieser Fall führt zu:

  • extrem detailliertes Speichern von Mustern
  • höchste Speicherfüllrate

Wenn das Vergessen das Auswendiglernen überwiegt, ist alles genau das Gegenteil:

  • Man erinnert sich nur an die allgemeinsten Muster
  • minimale Füllgeschwindigkeit

Derzeit ist die Auswahl geeigneter Speicher- und Vergessensfunktionen eine der wichtigsten Phasen beim Erstellen einer WTM-Instanz, da WTM im aktuellen Zustand eine begrenzte Speichergröße aufweist und keine Mechanismen zu deren Erhöhung aufweist.

Grundlegende Verhaltenshandlungen

In der Grundmenge der Reaktionen sollte es zusätzlich zu den zweckmäßigen Reaktionen eine weitere Klasse von Reaktionen geben - die funktionale Basis des Systems. Elemente der Funktionsbasis entsprechen den grundlegenden Verhaltenshandlungen des OS (Kopf heben, ersten Finger in der zweiten Phalanx beugen usw.). Jedes Verhalten wird eine Kombination grundlegender Verhaltenshandlungen sein (nur diese).

Auf der Ebene des neuronalen Netzwerks sind Elemente der Funktionsbasis Sequenzen von EPs. Für sie werden geeignete Umwelteinflüsse ausgewählt. Danach erhalten wir viele Paare [Regelmäßigkeit der Umwelt - Reaktion], die der ausgewählten funktionellen Basis entsprechen.

Verhalten in reaktiven Modellen

Viele Quellen spiegeln die Idee reaktiver Systeme als Realisierungen des Prinzips [Reiz -> Reaktion] wider. In solchen Systemen wird angenommen, dass der Reiz und die Reaktion durch ein minimales Zeitintervall getrennt sind (lesen Sie die Zeit ab, die benötigt wird, um den Reflexbogen oder ähnliche Strukturen zu passieren). Ihre Definition folgt aus dem Grundprinzip reaktiver Systeme - dem Determinismus. Es ist jedoch nicht ganz richtig. Ein genaueres Schema sieht so aus [Reiz -> innere Reaktion; deterministische Veränderung innerer Zustände; interner Zustand -> externe Aktivität (das Wort Reaktion wird durch Aktivität ersetzt, da in einem solchen System das Verhalten von vielen Reizen abhängt und nicht von einem)] (siehe Abb. 1). Der Unterschied zwischen dieser Definition ist das Vorhandensein eines internen Zustandsmodells. Die Signalausbreitung ist ebenfalls ein streng deterministischer Prozess.SU ist jedoch kein Automat mehr mit sofortiger Reaktion auf Reize. In einem solchen Modell kann der Reiz entweder eine äußere Reaktion haben oder nicht. Auch können der Reiz und die äußere Reaktion über die Zeit über eine große Distanz voneinander entfernt sein. Neuronale Netze (insbesondere WTM) gehören genau zu dieser Klasse von Systemen (dynamische neuronale Netze sind impliziert).



Der erste Teil des Schemas (Abb. 1.b.1), die interne Reaktion in WTM, ist einfach die Reaktion des Netzwerks auf den Stimulus. Der Assoziationsmechanismus ist für den zweiten Teil des Schemas verantwortlich (Abb. 1.b.2). Bei jedem Zyklus hat das WTM einen Zustand. Für diese Bedingung können geeignete assoziative Beziehungen bestehen. Dann ist der Prozess des bestimmten Zustandsübergangs ein Prozess des kontinuierlichen Übergangs durch assoziative Beziehungen. Mit anderen Worten, dies ist der Prozess der Reproduktion zuvor erinnerter Muster. Der dritte Teil des Schemas (Abb. 1.b.3) folgt aus dem zweiten. Externe Aktivität findet statt, wenn externe Aktivität in reproduzierbaren Mustern vorhanden war.

Verallgemeinerung

Generalisierung ist der Prozess der Übertragung einer Verhaltensreaktion von einem Umweltereignis auf ein anderes Ereignis, bei dem es sich um eine Abstraktion des ersten handelt (Abstraktion ist ein Objekt, das im Vergleich zu einem anderen Objekt keine Eigenschaften aufweist (es wird als Original oder Sonderfall bezeichnet).

Wie wir bereits wissen, ist die Reaktionsfolge von SU in Ketten EP verwandte assoziative Dann in Bezug auf WTM abstrakten Muster in der WTM gespeichert -.. eine Kette von EPO und assoziativen Beziehungen, in denen die ursprüngliche EP und Verbände durch ihre Abstraktionen ersetzt

Abstraktion P - ist das EP, aus der Menge der Neuronen , die der Neuronen Abstraction Vereinigung ergriffen wurde -. Diese Assoziation zwischen Abstraktionen EP Stärke des Zusammenhangs Abstraktionen kann weniger als oder gleich der Kraft des ursprünglichen Sprechers ..

Wir erhalten, dass angesichts des Prinzips des Aufbaus neuronaler Netze (ein Neuron - eine Eigenschaft) die Abstraktionen von ES und AS Teil des ursprünglichen ES und AS sind. Damit eine Verallgemeinerung stattfinden kann, ist es daher erforderlich, dass die EPs in der neuen Kette nahe genug an den EPs in der verallgemeinerten Kette liegen. Mehr zur „ausreichenden Nähe“ wird später beschrieben.

Aufgrund der Integration des Verallgemeinerungsprinzips in neuronale Netze stellt sich heraus, dass es in WTM nicht als separater Mechanismus vorliegt, sondern nur ein Teil des Prozesses der Signalausbreitung durch das Netz ist.

Stabilität der Erkennung von Verformungen. Situativer Kontext

Gespeicherte Reaktionssequenzen enthalten assoziative Bindungen mit unterschiedlichen Bindungsstärken. Ein Extremfall ist eine Regelmäßigkeit, bei der alle Kräfte gleich 1 sind. Sie wird ab dem Auftreten von 1 ihres Elements insgesamt perfekt reproduziert. Dies ist jedoch ein Extremfall. Die Sequenzen des „Mittelbandes“ zeichnen sich durch eine andere Situation aus. Sie können nur dann effektiv reproduziert werden, wenn Umweltereignisse genau ihnen entsprechen.

Das heißt, für die normale Verwendung von gespeicherten Sequenzen müssen die aktuellen Sequenzen im Takt genau mit ihnen übereinstimmen. Dieser Sachverhalt ist nicht gut, und daher verfügt WTM über einen Mechanismus für den situativen Kontext. Das beschriebene Problem ist nicht das einzige. Die Hauptverformungsarten 3:

  1. Ereignisse in einer Sequenz neu anordnen.
  2. das Auftreten einer Folge neuer Ereignisse zwischen benachbarten Elementen.
  3. Sequenzelemente überspringen

Also der Mechanismus des situativen Kontextes. Es besteht aus zwei Teilen:

  1. Wir modifizieren jede EP und fügen ihren Kontext hinzu
  2. Wir ändern das Verhältnis der Funktionen des Auswendiglernen und Vergessens in Richtung einer Stärkung des Vergessens. Dadurch merkt sich WTM weniger Details. Kompensation der Größe des Elektronenstrahls.

Der Situationskontext ist eine kurze Beschreibung der Ereignisse in der Nähe. Welches Zeitintervall in der Nähe liegt, bestimmt der Entwickler. Sie können es sich als temporären Speicher vorstellen, aus dem bei jedem WTM-Zyklus Informationen über das älteste Ereignis extrahiert und Informationen über das neue hinzugefügt werden.

Der Kontext ist nicht stark von der Reihenfolge der Ereignisse abhängig (implementierungsabhängig). Für einen erfolgreichen assoziativen Übergang (erfolgreiche Erkennung lesen) ist es daher erforderlich, nicht mehr Details in der aktuellen ES zu wiederholen, sondern dieselben vorherigen Ereignisse zu wiederholen.

Für Sequenzen bedeutet dies, dass je weiter die Wiedergabe der Sequenz voranschreitet, desto wahrscheinlicher ist es, dass die Wiedergabe fortgesetzt wird.

Trägheit

Der situative Kontextmechanismus erhöht die Trägheit der WTM-Erkennung. Die Erkennungsträgheit bezieht sich auf die WTM-Tendenz, die Mustererkennung fortzusetzen.

Kontextgruppen

Abhängig von der Beziehung zwischen der Größe des Kontexts und dem anfänglichen EP variieren die Eigenschaften von WTM stark. Wenn die ausgewählte Größe des Situationskontexts größer als die Größe des ES ist, ist das WTM-Verhalten träger. Das Verhalten von WTM besteht hauptsächlich aus Reaktionssequenzen, die Elemente des aktuellen Kontexts enthalten (wenn das Abdeckungsintervall des Kontexts groß ist, ist die Änderungsrate gering und das Verhältnis der Änderungen zur Gesamtgröße ist vernachlässigbar). Wir können also sagen, dass die Reaktionssequenzen gemäß dem allgemeinen Situationskontext in Gruppen unterteilt sind. Die Unterteilung in Gruppen wird auch durch die Tatsache unterstützt, dass wir beim Reproduzieren einer Folge von Reaktionen einer bestimmten Gruppe diese Regelmäßigkeit zum Kontext hinzufügen, ihn dadurch aktualisieren und im gleichen Zustand halten.

Implementierung


Für alle im theoretischen Teil berücksichtigten Konzepte werden Beschreibungen ihrer Implementierung in Bezug auf neuronale Netze gegeben.

Allgemeine Struktur

  • WTM ist ein mehrschichtiges neuronales Netzwerk mit Impulsneuronen.
  • Das Netzwerk hat sowohl direkte als auch Rückmeldungen.
  • Die Art der Bindungen zwischen den Schichten ist sowohl in Vorwärts- als auch in Rückwärtsrichtung lokal (d. H. Nicht vollständig verbunden).
  • Der Netzwerkbetrieb ist in Beats unterteilt. Für einen Takt die Signalausbreitung zwischen benachbarten Schichten des Netzwerks.
  • Ebenen haben Ganzzahlen, die bei 1 beginnen.
  • Zwischen Neuronen wird ein Abstand festgelegt, der dem Abstand zwischen den Schichten entspricht, die diese Neuronen enthalten.
  • Das Netzwerk empfängt Eingangssignale, nachdem eine vorbestimmte Zeitdauer T (Netzwerkbetriebsperiode) T in Ticks gemessen wurde.
  • Signale werden mit einer vorbestimmten Tinput-Zyklusfrequenz in das Netzwerk eingespeist. Tinput ist ein Vielfaches von T.
  • WTM . . . 1 .



Und jetzt ein paar Definitionen.

Aufgrund der Ähnlichkeit des Prozesses der Signalausbreitung durch das Netzwerk mit den Wellen erhielt das Modell einen Teil seines Namens - Welle. Der Teil „temporäres Gedächtnis“ wurde aufgrund der Ähnlichkeit zwischen den Modellen aus dem HTM (temporäres hierarchisches Gedächtnis) von Jeff Hawkins entlehnt.

Im theoretischen Teil wird das EP als statisches Objekt dargestellt. Um WTM zu verstehen, ist dieser Ansatz geeignet. In einer WFM-Implementierung ist ein ES ein dynamisches Objekt. Diese ES wird zeitlich verlängert, und zu jedem Zeitpunkt ihrer Dauer ist nur ein Teil der ES aktiv.
ES werden im Verlauf ihrer Ausbreitung durch das Netzwerk als Wellen bezeichnet. Die „Wellenfront“ (eine Schicht mit neuronaler Aktivität) ist der sehr aktive Teil des EP.

EP-Auswendiglernen

EP wird unter Verwendung der hebräischen synaptischen Plastizitätsregel gespeichert. Hebbs Regel besagt, dass, wenn die Aktivität eines Neurons an der Erregung eines anderen Neurons beteiligt ist, die Stärke der synaptischen Verbindung zwischen ihnen zunehmen sollte.

Assoziative Beziehung

AS zwischen ES werden mithilfe von Rückmeldungen im Netzwerk erstellt. AS verbindet zwei aufeinanderfolgende Aktivitätswellen. Hierzu wird die Rückkopplungslänge gleich T / 2 (Netzwerkbetriebszeit) gewählt. Synaptische Verbindungen, aus denen die Sprecher bestehen, folgen ebenfalls der Hebb-Regel. Der Prozess der Bildung von Sprechern:

  1. An den Eingangsneuronen wurde ein Signal empfangen, das die Ausbreitung einer Aktivitätswelle verursachte
  2. Nach der Zeit T kam ein zweites Signal an, das die Ausbreitung einer Aktivitätswelle verursachte
  3. von der ersten Welle bewegt sich das Rückkopplungssignal in Richtung der zweiten Welle
  4. /2 /2
  5. /2.

Wenn es keine zweite Welle gibt, wird nur nach der ersten Welle Aktivität erzeugt. Im theoretischen Teil wurde dies als assoziativer Übergang (sowie Anerkennung) bezeichnet. Die neuronale Aktivität, die sich aus dem assoziativen Übergang im theoretischen Teil ergab, wurde als EP bezeichnet, das durch die assoziative Verbindung erzeugt wurde.

Die Kraft der assoziativen Kommunikation. Auf der Implementierungsebene ist dies ein numerischer Wert, der die Fähigkeit einer Aktivitätswelle kennzeichnet, eine andere Welle durch ihre Rückkopplungen wiederherzustellen. Der Prozess der Erhaltung von Reaktionssequenzen besteht in der kontinuierlichen Herstellung assoziativer Verbindungen zwischen aufeinanderfolgenden Aktivitätswellen sowie in der Erhaltung der Wellen selbst.

Die Speicherfunktion ist eine Funktion, nach der die Werte der Gewichtskoeffizienten beim Einstellen erhöht werden. Hängt vom aktuellen Synapsengewicht ab. Die Vergessensfunktion ist eine Funktion, nach der die Werte der Gewichtungskoeffizienten mit der Zeit abnehmen. Hängt vom aktuellen Synapsengewicht ab.

Verhalten

Generalisierung ist der Prozess der Übertragung einer Verhaltensreaktion von einem Umweltereignis auf ein anderes Ereignis, bei dem es sich um eine Abstraktion des ersten handelt. Auf der Ebene des neuronalen Netzwerks bedeutet dies, die Stärke assoziativer Verbindungen mit einer gewissen Regelmäßigkeit auf einem ausreichenden Niveau zu halten, wenn seine Speicherelemente durch einige ihrer Abstraktionen ersetzt werden.

Situativer Kontext

Ein situativer Kontext ist eine komprimierte Eigenschaft von Ereignissen in der Nähe, die dem aktuellen EP hinzugefügt wird, um die Qualität der Verallgemeinerung von Mustern zu verbessern. Für seine Implementierung wird ein zusätzlicher Mechanismus für den Betrieb von Neuronen eingeführt - eine Verringerung der Aktivierungsschwelle.

Der Mechanismus zum Verringern der Aktivierungsschwelle: Nachdem sich das Neuron in einem aktiven Zustand befindet, sollte die Aktivierungsschwelle des Neurons verringert werden. Mit der Zeit kehrt der Schwellenwert zu seinem Anfangswert zurück. Die Reduzierung erfolgt gemäß der Schwellenwertreduzierungsfunktion. Der Wert der Funktion hängt vom aktuellen Schwellenwert ab.

Betrachten Sie ein Beispiel. Angenommen, eine Folge von Signalen wurde an ein WTM mit einem Schwellenwertreduzierungsmechanismus angelegt. Nach jeder Welle verringert ein Teil der Neuronen die Aktivierungsschwelle. Dies wird dazu führen, dass es in den nächsten Wellen Aktivitäten geben wird, die nicht ohne Reduzierung der Schwelle auskommen würden. Diese Aktivität wird unser kurzes Merkmal der Situation sein.

Die Hauptsache ist, dass beim Wiederholen derselben Signale auch zusätzliche Aktivitäten wiederholt werden.

Diese Implementierung des Kontextmechanismus wurde aufgrund seiner Einfachheit und eines Nebeneffekts gewählt, der dem Ziel entspricht, den Kontextmechanismus als solchen einzuführen.

Effekt selbst: Nach der Ausbreitung einer bestimmten Welle entlang des WTM wird ihre wiederholte Ausbreitung vereinfacht. Darüber hinaus wird die Ausbreitung von Wellen, die dieselben Neuronen enthalten (aus derselben Kontextgruppe gelesen), vereinfacht. Dieser Effekt kann als Kurzzeitgedächtnis-WTM bezeichnet werden. Es entspricht dem Ziel, einen Kontextmechanismus einzuführen - die Erkennungsträgheit zu erhöhen.

WTM-Instanzplan

  1. Basierend auf den für WTM festgelegten Aufgaben, um Umweltereignisse zu unterscheiden, die externe Reaktionen erfordern.
  2. Markieren Sie die Funktionsgrundlage von WTM.
  3. Wählen Sie geeignete (geeignete) Reaktionen. Diese Reaktionen werden als basisch bezeichnet.
  4. Erstellen Sie ein WTM, das den ausgewählten Grundreaktionen entspricht.
  5. Bieten Sie zusätzliches Training für WTM an, indem Sie die Auswirkungen auf den Opamp durch das Medium nutzen.

Fazit


Dies ist derzeit eine fast vollständige Beschreibung von WTM. Weitere Arbeitsbereiche:

  1. Testanwendungen des Modells (sie waren vorher, aber danach hat das Modell Änderungen erfahren, so dass alles neu ist).
  2. Bestimmung von Mustern zur Auswahl von Netzwerkmerkmalen (Netzwerklänge, Anzahl von Neuronen in einer Schicht, Anzahl von Direkt- und Rückkopplungsverbindungen, ...) und internen Funktionen (Speichern, Vergessen, Verringern der Aktivierungsschwelle, ...). Genauer gesagt, ihre gegenseitigen Beziehungen, die dem Netzwerk die erforderlichen Eigenschaften verleihen würden (Speicherkapazität, Detail der zugewiesenen Muster, Speicherdauer, Generalisierungsgrad, ...).
  3. Hinzufügen von Netzwerkwachstumsfunktionen zum WTM, um Speicherbeschränkungen zu überwinden.

Ich freue mich über konstruktive Kritik und allgemeines Wissen und Erfahrung zu diesem und verwandten Themen.

Source: https://habr.com/ru/post/de389877/


All Articles