EinfĂŒhrung
Bei Habr wurde in den folgenden Veröffentlichungen eine mathematische Beschreibung des Betriebs des Kalman-Filters und seiner Anwendungsmerkmale berĂŒcksichtigt [1 Ă· 10]. In der Veröffentlichung [2] wurde der Algorithmus des Kalman-Filters (FC) im Modell des âZustandsraumsâ in einer einfachen und verstĂ€ndlichen Form betrachtet. Es sollte beachtet werden, dass die Untersuchung von Steuerungs- und Managementsystemen im Zeitbereich unter Verwendung von Zustandsvariablen in letzter Zeit aufgrund der einfachen Analyse in groĂem Umfang verwendet wurde [11].
Die Veröffentlichung [8] ist speziell fĂŒr die Ausbildung von groĂem Interesse. Die methodische Technik des Autors ist sehr effektiv. Er begann seinen Artikel mit der Betrachtung der Verteilung des zufĂ€lligen GauĂschen Fehlers, berĂŒcksichtigte den FC-Algorithmus und endete mit einer einfachen iterativen Formel zur Auswahl der FC-VerstĂ€rkung. Der Autor beschrĂ€nkte sich auf eine Betrachtung der GauĂschen Verteilung unter Berufung auf die Tatsache, dass fĂŒr ausreichend groĂe
n (Mehrfachmessungen) Das Verteilungsgesetz der Summe der Zufallsvariablen tendiert zur GauĂschen Verteilung.
Theoretisch ist eine solche Aussage sicherlich richtig, aber in der Praxis kann die Anzahl der Messungen an jedem Punkt im Bereich nicht sehr groĂ sein. Kalman RE selbst erhielt Ergebnisse zur minimalen Kovarianz des Filters basierend auf orthogonalen Projektionen, ohne anzunehmen, dass die Messfehler GauĂsch sind [12].
Der Zweck dieser Veröffentlichung ist es, die FĂ€higkeiten des Kalman-Filters zu untersuchen, um den Entropiewert eines zufĂ€lligen Fehlers mit einer nicht-GauĂschen Verteilung zu minimieren.
Um die Wirksamkeit des Kalman-Filters bei der Identifizierung des Verteilungsgesetzes oder einer Ăberlagerung von Gesetzen aus experimentellen Daten zu bewerten, verwenden wir die Informationstheorie von Messungen, die auf der Informationstheorie von C. Shannon basieren, wonach Informationen wie eine physikalische GröĂe gemessen und bewertet werden können.
Der Hauptvorteil des Informationsansatzes zur Beschreibung von Messungen besteht darin, dass die GröĂe des Entropieintervalls der Unsicherheit fĂŒr jedes Verteilungsgesetz streng mathematisch ermittelt werden kann. Dies beseitigt die historisch entwickelte WillkĂŒr, die bei der freiwilligen Zuweisung verschiedener Werte der Konfidenzwahrscheinlichkeit unvermeidlich ist. Dies ist besonders wichtig im Bildungsprozess, wenn der SchĂŒler bei der Anwendung der Kalman-Filterung auf eine bestimmte numerische Stichprobe eine Abnahme der Messunsicherheit beobachten kann [13, 14].
DarĂŒber hinaus kann die Kombination der Wahrscheinlichkeits- und Informationseigenschaften der Stichprobe die Art der Verteilung des Zufallsfehlers genauer bestimmen. Dies wird durch eine umfangreiche Datenbank mit numerischen Werten von Parametern wie dem Entropiekoeffizienten und dem GegenĂŒberschuss fĂŒr verschiedene Verteilungsgesetze und deren Ăberlagerung erklĂ€rt.
Bewertung der Ăberlagerung der Verteilungsgesetze einer Zufallsvariablen durch den Entropiekoeffizienten und den GegenĂŒberschuss (erhalten aus experimentellen Daten)Wahrscheinlichkeitsverteilungsdichte fĂŒr jede Spalte des Histogramms [14] breit
d ist gleich
p i ( x i ) = n i / ( n c d o t d ) daher ist die SchÀtzung der Entropiewahrscheinlichkeiten definiert als
H left(x right)= int+ inftyâ inftyp left(x right) lnp left(x right)dx beim Finden der Entropie durch das Histogramm von
m Spalten erhalten wir das VerhÀltnis:
displaystyleH left(x right)=â summi=1 int tildexi+ fracd2 tildexiâ fracd2 fracnind ln fracnind= summi=1 fracnin ln fracnni+ lndWir prĂ€sentieren den Ausdruck zur SchĂ€tzung der Entropie in folgender Form:
H left(x right)= ln left[d prodmi=1 left( fracnni right) fracnin right]Wir erhalten einen Ausdruck zum SchÀtzen des Entropiewertes einer Zufallsvariablen:
Deltae= frac12eH left(x right)= fracdn210â frac1n summ1ni lgniDie Klassifizierung der Verteilungsgesetze erfolgt auf einer Ebene in den Koordinaten des Entropiekoeffizienten
k= frac Deltae sigma und GegenĂŒberschuss
psi= frac sigma2 sqrt mu4 wo
mu4= frac1n sumn1 left(xiâ barX right)4 .
FĂŒr alle möglichen Verteilungsgesetze variiert \ psi von 0 bis 1 und k von 0 bis 2,066, sodass jedes Gesetz durch einen bestimmten Punkt charakterisiert werden kann. Wir zeigen dies mit folgendem Programm:
Ebene der Verteilungsgesetzeimport matplotlib.pyplot as plt from numpy import* from scipy.stats import * def graf(a):

In einer Ebene in Koordinaten
k, psi aus dem Rest der Verteilungen entfernt, die Pareto, Cauchy-Verteilungen, obwohl sie zu verschiedenen Anwendungsgebieten gehören, das erste in der Physik und das zweite in der Wirtschaft. WĂ€hlen Sie zum Vergleich die normale GauĂsche Verteilung oben in der Klassifizierung. Alle folgenden Vergleiche werden an einer begrenzten Probe durchgefĂŒhrt und dienen dazu, die FĂ€higkeiten eines photonischen Kristalls am Beispiel einer numerischen Bestimmung des Entropiefehlers zu demonstrieren.
Auswahl eines Kalman-Filteralgorithmus
An jedem ausgewĂ€hlten Punkt im Messbereich werden mehrere Messungen durchgefĂŒhrt und deren Ergebnis mit einer Messung verglichen, die FC ânicht kenntâ. Daher sollten Sie einen FC auswĂ€hlen, z. B. Kalman-Filter, um eine Konstante zu schĂ€tzen [16]. Ich bevorzuge jedoch Python und habe mich fĂŒr die Option [16] mit umfangreicher Dokumentation entschieden. Ich werde eine Beschreibung des Algorithmus geben:
Da die Konstante immer ein Modell des Systems ist, kann dargestellt werden als:
xk=xkâ1+wk , (1)
FĂŒr das Modell degeneriert die Ăbergangsmatrix zu Eins und die Kontrollmatrix zu Null. Das Messmodell hat die Form:
yk=ykâ1+vk , (2)
FĂŒr Modell (2) wird die Messmatrix in Einheit und die Kovarianzmatrix konvertiert
P,Q,R in Dispersionen verwandeln. Am nÀchsten
k -th Schritt, bevor die Messergebnisse eintreffen, versucht der Kalman-Skalarfilter, den neuen Zustand des Systems unter Verwendung der Formel (1) zu bewerten:
hatxk/(kâ1)= hatx(kâ1)/(kâ1) , (3)
Gleichung (3) zeigt, dass die A-priori-SchÀtzung im nÀchsten Schritt gleich der im vorherigen Schritt vorgenommenen posterioren SchÀtzung ist. A-priori-SchÀtzung der Varianz des Fehlers:
Pk/(kâ1)=P(kâ1)/(kâ1)+Qk , (4)
Nach a priori staatlicher EinschÀtzung
hatxk/(kâ1) Es ist möglich, die Messprognose zu berechnen:
hatyk= hatxk/(kâ1) , (5)
Nach der nÀchsten Messung wird empfangen
yk Der Filter berechnet den Fehler seiner Prognose
k th Messung:
ek=ykâ hatyk=ykâ hatxk/(kâ1) , (6)
Der Filter passt seine Bewertung des Systemzustands an und wÀhlt einen Punkt aus, der irgendwo zwischen der anfÀnglichen Bewertung liegt
hatxk/(kâ1) und der Punkt, der der neuen Dimension entspricht
yk ::
ek=ykâ hatyk=ykâ hatxk/(kâ1) , (7)
wo
Gk - FilterverstÀrkung.
Die FehlervarianzschÀtzung wird ebenfalls korrigiert:
Pk/(k)=(1âGk) cdotPk/(kâ1) , (8)
Es kann nachgewiesen werden, dass die Varianz des Fehlers
ek ist gleich:
Sk=Pk/(kâ1)+Rk , (9)
Die VerstÀrkung des Filters, bei der der minimale Fehler bei der Beurteilung des Systemzustands erreicht wird, wird aus der Beziehung bestimmt
Gk=Pk/(kâ1)/Sk , (10)
FC-Entropiefehlerminimierung fĂŒr Rauschen mit Cauchy-, Pareto- und GauĂ-Verteilung1. In der Wahrscheinlichkeitstheorie wird die Cauchy-Verteilungsdichte aus der Beziehung bestimmt:
f(x)= fracb pi cdot(1âx2)FĂŒr diese Verteilung ist es unmöglich, den Fehler mit Methoden der Wahrscheinlichkeitstheorie abzuschĂ€tzen (
sigma= infty ), aber die Informationstheorie erlaubt Ihnen dies:
Programm zur Minimierung des FC-Entropiefehlers durch Cauchy-Rauschen from numpy import * import matplotlib.pyplot as plt from scipy.stats import * def graf(a):

Der Typ des Diagramms kann sich sowohl beim Neustart des Programms (neue Generation der Verteilungsprobe) als auch in AbhĂ€ngigkeit von der Anzahl der Messungen und Verteilungsparameter Ă€ndern, bleibt jedoch unverĂ€ndert. Der FC minimiert den Wert des Entropiefehlers, der auf der Grundlage der Informationstheorie der Messungen berechnet wird. FĂŒr den gegebenen Graphen reduziert FC den Entropiefehler um das 3,9-fache.
2. In der Wahrscheinlichkeitstheorie die Pareto-Verteilungsdichte mit Parametern
xm und
k bestimmt aus dem VerhÀltnis:
f_ {X} (x) = \ left \ {\ begin {matrix} \ frac {kx_ {k} ^ {m}} {x ^ {k + 1}}, & x \ geq x_ {m} \\ 0, & x <x_ {m} \ end {matrix} \ right.
Es ist zu beachten, dass die Pareto-Verteilung nicht nur in der Wirtschaft zu finden ist. Sie können das folgende Beispiel fĂŒr die Verteilung der DateigröĂe im Internetverkehr ĂŒber das TCP-Protokoll geben.
3. In der Wahrscheinlichkeitstheorie die Dichte der Normalverteilung (GauĂ) mit mathematischer Erwartung
mu und Standardabweichung
sigma bestimmt aus dem VerhÀltnis:
f(x)= frac1 sigma sqrt2 pi cdoteâ frac(xâ mu)22 sigma2Die Bestimmung der Minimierung des FC-Entropiefehlers aus Rauschen mit einer GauĂschen Verteilung wird zum Vergleich mit nicht-GauĂschen Cauchy- und Pareto-Verteilungen angegeben.
Programm zur Minimierung des FC-Entropiefehlers durch Normalverteilungsrauschen from numpy import * import matplotlib.pyplot as plt from scipy.stats import * def graf(a):

Die GauĂsche Verteilung bietet eine höhere StabilitĂ€t des Ergebnisses fĂŒr 50 Messungen, und fĂŒr das gezeigte Diagramm nimmt der Entropiefehler um das 2,2-fache ab.
Minimierung des FC-Entropiefehlers aus einer Stichprobe experimenteller Daten mit einem unbekannten RauschverteilungsgesetzProgramm zur Minimierung des FC-Entropiefehlers einer begrenzten Stichprobe experimenteller Daten from numpy import * import matplotlib.pyplot as plt from scipy.stats import * def graf(a):

Bei der Analyse einer Stichprobe experimenteller Daten erhalten wir stabile Ergebnisse zur Minimierung des FC-Entropiefehlers. FĂŒr dieses Beispiel reduziert der FC den Entropiefehler um das 4,85-fache.
Fazit
Alle Vergleiche in diesem Artikel wurden an begrenzten Datenstichproben durchgefĂŒhrt. Daher sollten grundlegende Schlussfolgerungen unterlassen werden. Die Verwendung von Entropiefehlern ermöglicht es uns jedoch, die Wirksamkeit des Kalman-Filters in der gegebenen Implementierung zu quantifizieren. Daher kann die Trainingsaufgabe dieses Artikels als abgeschlossen betrachtet werden.