KĂŒrzlich habe ich mich gefragt: Ist unser Wunsch, den Goldenen Schnitt ĂŒberall zu sehen, irgendwie mit rein kulturellen Dingen verbunden, oder ist in der Struktur unseres Gehirns ein tieferes Muster verborgen? Um das herauszufinden, habe ich mich entschlossen, ein paar Dinge zu tun:
- Formulieren Sie eine spezifische Hypothese zu diesem Muster. Ich entschied, dass die Annahme am besten geeignet ist, dass unser Gehirn ein Zahlensystem verwendet, das auf der Zerlegung von Zahlen in Grade des Goldenen Schnitts basiert, da einige seiner Merkmale der Arbeit primitiver neuronaler Netze sehr Ă€hnlich sind: Tatsache ist, dass die Grade des Goldenen Schnitts höherer Ordnung endlos erweitert werden können die Anzahl der Wege in der Summe der Grade niedrigerer Ordnung und sogar negativer Grade. Somit wird ein höherer Grad von wenigen niedrigeren Graden "angeregt", wodurch die gleiche Ăhnlichkeit mit einem neuronalen Netzwerk manifestiert wird.
- Beschreibe einen bestimmten Weg, um es zu testen: Ich habe die Matte ausgewĂ€hlt. Simulation der Gehirnentwicklung durch zufĂ€llige Ănderungen im einfachsten neuronalen Netzwerk - der Matrix eines linearen Operators.
- Erstellen Sie Kriterien zur BestÀtigung der Hypothese. Mein Kriterium war, dass das auf dem Goldenen Schnitt basierende Zahlensystem auf einer neuronalen Netzwerkmaschine mit der gleichen Informationsmenge mit weniger Fehlern als binÀr implementiert wird.
Da es sich um Programmierung handelt, werde ich den zweiten und dritten Punkt genauer beschreiben.
Um zufÀllige VerÀnderungen im Gehirn wÀhrend der Evolution zu simulieren, habe ich die Funktion rand_s () verwendet, da sie kryptografisch stabil ist und dementsprechend ein "zufÀlligeres" Ergebnis liefert. Ich habe auch als Kriterium verwendet, dass das neuronale Netzwerk die geringste Anzahl von Fehlern erreichte, wenn es lernte, dass sich sein Produkt durch den Vektor um ungefÀhr dasselbe Modul Àndert, wenn die Matrix um kleine Werte in zufÀllige Richtungen abweicht.
FĂŒr die Kodierung der Daten im Vektor selbst habe ich einen 28-dimensionalen Vektor fĂŒr zwei 14-stellige BinĂ€rzahlen und deren Summe (nach den ersten 14 Zeichen mĂŒssen nur noch 14 Nullen ausgefĂŒllt werden) und einen 40-dimensionalen Vektor fĂŒr zwei Zahlen im System verwendet mit einem goldenen Schnitt.
Die Eingabedatei hat das folgende Format.
Die erste Zeile besteht aus zwei durch ein Leerzeichen getrennten Ganzzahlen, der Dimension des Vektors und der Anzahl der Elemente im Trainingssatz.
Alle folgenden Zeilen: Die erste Zeile ist die Eingabe des neuronalen Netzwerks, die zweite Zeile ist das korrekte Verarbeitungsergebnis.
Hier ist ein Ausschnitt aus dem Code eines neuronalen Netzwerks, der dafĂŒr verantwortlich ist, ihn an einem Beispiel der Eingabedaten und den dazugehörigen korrekten Ergebnissen zu trainieren:
while (((d-mu)*(d-mu)>0.01)||(q<10))
Ich habe auch zufĂ€llig Eingabedaten generiert, das waren reelle Zahlen von null bis eins. ZusĂ€tzlich zum Trainingsmuster habe ich auch ein Testmuster generiert, auf dem ich mein neuronales Netzwerk getestet habe. ZusĂ€tzlich berechnete ich fĂŒr jedes Ergebnis, das durch das neuronale Netzwerk erhalten wurde, den quadratischen Mittelwertfehler, dh die Wurzel des quadratischen Mittelwerts der Differenz zwischen den Elementen des Vektors, die durch das neuronale Netzwerk erhalten wurden, und dem Vektor, der das korrekte Ergebnis enthĂ€lt.
Als Ergebnis erhielt ich 1000 durchschnittliche Fehler fĂŒr das Ergebnis des Betriebs des neuronalen Netzwerks mit HinzufĂŒgung in den binĂ€ren und goldbasierten Zahlensystemen. Ich habe die Dimension des Vektors so ausgewĂ€hlt, dass sie ungefĂ€hr die gleiche Menge an Informationen sowohl innerhalb des Zahlensystems als auch zwischen ihnen speichert.
Ich habe die Fehler in verschiedenen Zahlensystemen mit gepaarten t-Tests verglichen und das habe ich bekommen.
Vergleich: Goldener Schnitt - BinÀrsystem
Hypothese: Der Fehler im Goldenen Schnitt ist im Durchschnitt geringer.
Ergebnisse:
t = -22,033
df = 999
p <0,001
Cohens d = -0,697 (Mit einem goldenen Schnitt ist der Fehler geringer)
99% Konfidenzintervall fĂŒr Cohens d:
von -inf bis -0,615
Shapiro-Wilk-Verteilungstest:
W = 0,998 p = 0,382 (Verteilungen entsprechen ungefÀhr der Normalverteilung)
Beschreibende Statistik:
Goldener Schnitt:
Arithmetisches Mittel: 0,365
Standardabweichung: 0,044
BinÀrsystem:
Arithmetisches Mittel: 0,414
Standardabweichung: 0,055
Ich beschloss, alle Daten, die in dieser kleinen Bastelstudie verwendet wurden, vorerst als Beweis dafĂŒr aufzubewahren, dass ich die Zahlen nicht von der Decke gezogen habe. Wer auch immer fragt, ich kann es senden.
Nun zu den Schlussfolgerungen. Da neuronale Netze, deren Training auf einer zufĂ€lligen Ănderung der Verbindungen zwischen Neuronen und der Auswahl der besten von ihnen (wie wĂ€hrend der Evolution) basiert, in diesem Fall zeigten, dass sie mit dem Goldenen Schnitt als Basis des Zahlensystems mit der gleichen Zahl wesentlich besser zurechtkommen als mit den beiden Es ist anzunehmen, dass die Entwicklung des Gehirns der Tiere und insbesondere des Menschen einen Ă€hnlichen Weg gegangen ist.
UPD Ab dem Zeitpunkt der Veröffentlichung fĂŒhrte der Autor eine neue Studie durch, in der er die Korrektur der Anzahl der Messungen und den Einfluss der Basis des Zahlensystems getrennt von ihrem Abstand zum Goldenen Schnitt mittels linearer Regression berĂŒcksichtigte. Das Ergebnis war enttĂ€uschend: Die NĂ€he der Basis zum Goldenen Schnitt erhöht den Fehler eher als verringert ihn, so dass die Empfindung wie immer nachlieĂ.