Entdeckung im Zusammenhang mit Logik
Logik ist die Basis vieler Dinge. Aber was sind die Grundlagen der Logik selbst?
In der symbolischen Logik werden Symbole wie p und q eingeführt, um Aussagen (oder „Sätze“) vom Typ „Dies ist ein interessanter Aufsatz“ zu bezeichnen. Es gibt immer noch bestimmte logische Regeln, zum Beispiel ist für jedes p und jedes q der Ausdruck NOT (p AND q) ähnlich wie (NOT p) OR (NOT q).
Aber woher kommen diese „Regeln der Logik“? Logik ist ein formales System. Wie die euklidische Geometrie kann sie auf Axiomen aufgebaut werden. Aber was sind Axiome? Sie können mit Anweisungen wie p UND q = q UND p oder NICHT NICHT p = p beginnen. Aber wie viele Axiome sind erforderlich? Wie einfach können sie sein?
Diese Frage war lange Zeit schmerzhaft. Aber am Sonntag, dem 29. Januar 2000, um 20:31 Uhr erschien das einzige Axiom auf dem Bildschirm meines Computers. Ich habe bereits gezeigt, dass nichts einfacher sein kann, aber ich stellte bald fest, dass dieses einzelne kleine Axiom ausreicht, um die gesamte Logik zu erstellen:
Woher wusste ich, dass sie wahr ist? Weil ich den Computer dazu gebracht habe, es zu beweisen. Und hier ist der Beweis, den ich in dem Buch „
A New Type of Science “ (bereits im
Wolfram Data Repository verfügbar) abgedruckt habe:
Mit der
neuesten Version von Wolfram Language kann jeder diesen Beweis in nicht mehr als einer Minute erstellen. Und jeder Schritt ist leicht
zu überprüfen . Aber warum wird das Ergebnis wahr sein? Wie kann man es erklären?
Ähnliche Fragen werden zunehmend zu allen Arten von Computersystemen und Anwendungen im Zusammenhang mit maschinellem Lernen und KI gestellt. Ja, wir sehen, was passiert. Aber können wir das verstehen?
Ich denke, dass dieses Thema von Natur aus von grundlegender Bedeutung ist - und von entscheidender Bedeutung für die Zukunft von Wissenschaft und Technologie und für die Zukunft aller intellektuellen Entwicklung.
Aber bevor wir darüber sprechen, wollen wir das Axiom diskutieren, das ich entdeckt habe.
Die Geschichte
Logik als formale Disziplin stammt von Aristoteles, der im 4. Jahrhundert vor Christus lebte. Als Teil seiner Lebensarbeit in der Katalogisierung von Dingen (Tieren, Ursachen usw.) stellte Aristoteles einen Katalog zulässiger Argumentationsformen zusammen und erstellte für sie symbolische Vorlagen, die im Wesentlichen den Hauptinhalt der Logik für zweitausend Jahre darstellten.
Im 15. Jahrhundert wurde jedoch die Algebra erfunden, und damit erschien ein klareres Bild der Dinge. Aber erst 1847 formulierte George Boole die Logik schließlich auf die gleiche Weise wie die Algebra, wobei logische Operationen wie UND und ODER nach Regeln arbeiteten, die den Regeln der Algebra ähnlich waren.
Nach einigen Jahren schrieben die Leute bereits axiomatische Systeme für die Logik. Ein typisches Beispiel war:
Aber sind UND, ODER und NICHT wirklich notwendig für die Logik? Nach dem ersten Jahrzehnt des 20. Jahrhunderts entdeckten mehrere Menschen, dass die einzige Operation, die wir jetzt NAND nennen, ausreichen wird, und zum Beispiel kann p OR q als (p NAND p) NAND (q NAND q) berechnet werden. Die „funktionale Vollständigkeit“ von NAND könnte ohne die Entwicklung der Halbleitertechnologie für immer seltsam bleiben - es implementiert alle Milliarden logischer Operationen in einem modernen Mikroprozessor unter Verwendung einer Kombination von Transistoren, die nur die NAND-Funktion oder das zugehörige NOR ausführen.
Wie sehen also Axiome der Logik in Bezug auf NAND aus? Hier ist die erste bekannte Version davon, die 1913 von Henry Schaeffer aufgenommen wurde (hier bezeichnet der Punkt NAND):
1910 verbreitete Principia Mathematica, ein dreibändiges Werk über die Logik und Philosophie der Mathematik von Alfred North Whitehead und Bertrand Russell, die Idee, dass vielleicht die gesamte Mathematik aus der Logik abgeleitet werden kann. Angesichts dessen war es sehr interessant, die Frage zu untersuchen, wie einfach die Axiome der Logik sein können. Die bedeutendsten Arbeiten in diesem Bereich wurden in Lemberg und Warschau (damals gehörten diese Städte zu Polen) durchgeführt, insbesondere Jan Lukasevich (als Nebeneffekt seiner Arbeit erfand er 1920 eine „polnische“ Aufzeichnung, für die keine Klammern erforderlich sind). 1944, im Alter von 66 Jahren, floh Lukasevich vor der vorrückenden sowjetischen Armee und landete 1947 in Irland.
In der Zwischenzeit musste der Ire Carew Meredith, der in Winchester und Cambridge studierte und Mathematiklehrer in Cambridge wurde, 1939 wegen seines Pazifismus nach Irland zurückkehren. 1947 besuchte Meredith Lukasevichs Vortrag in Dublin, der ihn dazu inspirierte, nach einfachen Axiomen zu suchen, was er größtenteils für den Rest seines Lebens tat.
Bis 1949 entdeckte Meredith ein Zwei-Axiom-System:
Fast 20 Jahre später, 1967, konnte er dies vereinfachen, um:
Ist es möglich, dies weiter zu vereinfachen? Meredith hat jahrelang daran herumgebastelt und herausgefunden, wo Sie sonst das zusätzliche NAND entfernen können. Aber nach 1967 rückte er nicht weiter vor (und starb 1976), obwohl er 1969 ein Drei-Axiom-System fand:
Als ich anfing, Axiomensysteme der Logik zu studieren, wusste ich nichts über die Arbeit von Meredith. Ich interessierte mich für dieses Thema, um zu verstehen, welches Verhalten aus einfachen Regeln entstehen könnte. In den 1980er Jahren machte ich die
unerwartete Entdeckung, dass selbst zellulare Automaten mit möglichst einfachen Regeln - wie meine Lieblingsregel
30 - zu unglaublich komplexem Verhalten führen können.
Nachdem ich die neunziger Jahre damit verbracht hatte, die Allgemeinheit dieses Phänomens zu verstehen, wollte ich schließlich sehen, wie es auf die Mathematik angewendet werden kann. In der Mathematik beginnen wir tatsächlich, mit Axiomen zu arbeiten (zum Beispiel in der Arithmetik, in der Geometrie, in der Logik), und dann versuchen wir auf ihrer Grundlage, eine ganze Reihe komplexer Theoreme zu beweisen.
Wie einfach können Axiome sein? Das wollte ich 1999 etablieren. Als erstes Beispiel habe ich mich entschlossen, Logik (oder gleichwertig Boolesche Algebra) zu studieren. Wenn ich alle meine Erwartungen widerlege, deutet meine Erfahrung mit zellularen Automaten, Turing-Maschinen und anderen Systemen - einschließlich partieller Differentialgleichungen - darauf hin, dass Sie einfach damit beginnen können, die einfachsten Fälle aufzulisten und irgendwann etwas zu sehen interessant.
Aber ist es möglich, die Logik auf diese Weise zu öffnen? Es gab nur einen Weg, dies zu sagen. Und Ende 1999 habe ich alles arrangiert, um den Raum aller möglichen Axiomensysteme zu erkunden, beginnend mit dem einfachsten.
In gewissem Sinne definiert jedes Axiomensystem eine Reihe von Einschränkungen, beispielsweise für p · q. Sie sagt nicht, was p · q ist, sie gibt nur Eigenschaften an, die p · q erfüllen muss (zum Beispiel kann sie sagen, dass q · p = p · q ist). Dann ist die Frage, ob es möglich ist, aus diesen Eigenschaften alle Theoreme der Logik abzuleiten, die gelten, wenn p · q Nand [p, q] ist: weder mehr noch weniger.
Etwas kann direkt überprüft werden. Wir können das Axiomensystem nehmen und sehen, welche Formen p · q die Axiome erfüllen, wenn p und q beispielsweise wahr und falsch sind. Wenn das Axiomensystem q · p = p · q ist, dann kann p · q ja Nand [p, q] sein - aber nicht unbedingt. Es kann auch And [p, q] oder Equal [p, q] oder viele andere Optionen sein, die nicht die gleichen Pegel wie die NAND-Funktion in der Logik erfüllen. Aber wenn wir das Axiomensystem {((p · p) · q) · (q · p) = q} erreichen, erreichen wir den Zustand, in dem Nand [p, q] (und das Äquivalent von Nor [p , q]) bleiben die einzigen funktionierenden p · q-Modelle - zumindest wenn wir annehmen, dass q und p nur zwei mögliche Werte haben.
Ist das dann ein System von Axiomen für die Logik? Nein. Weil es zum Beispiel die Existenz einer Variante impliziert, bei der p und q drei Werte haben, aber dies ist nicht in der Logik. Die Tatsache, dass dieses Axiomensystem aus einem Axiom nahe an dem liegt, was wir brauchen, zeigt jedoch, dass es sich lohnt, nach einem einzigen Axiom zu suchen, aus dem die Logik reproduziert wird. Genau das habe ich im Januar 2000 getan (in unserer Zeit wurde diese Aufgabe dank der relativ neuen und sehr praktischen Funktion von Wolfram Language, Groupings erleichtert).
Es war ziemlich einfach zu überprüfen, ob die Axiome, in denen 3 oder weniger NANDs (oder „Punktoperatoren“) vorhanden waren, nicht funktionierten. Am Sonntag, dem 29. Januar, um 5 Uhr morgens (ja, damals war ich eine Eule) stellte ich fest, dass Axiome mit 4 NANDs auch nicht funktionieren würden. Als ich gegen 6 Uhr morgens aufhörte zu arbeiten, hatte ich 14 Kandidaten mit fünf NANDs in der Hand. Aber ich arbeitete am Sonntagabend weiter und führte zusätzliche Tests durch. Ich musste sie alle fallen lassen.
Unnötig zu erwähnen, dass der nächste Schritt darin bestand, die Axiome mit 6 NAND zu überprüfen. Es gab 288.684 von ihnen. Aber mein Code funktionierte effizient und es verging nicht viel Zeit, bis Folgendes auf dem Bildschirm erschien (ja, aus Mathematica Version 4):
Zuerst habe ich nicht verstanden, was ich getan habe. Ich wusste nur, dass ich 25 nicht äquivalente Axiome mit 6 NANDs habe, die weiter fortgeschritten sind als Axiome mit 5 NANDs. Aber gab es Axiome unter ihnen, die Logik erzeugten? Ich hatte eine empirische Methode, mit der unnötige Axiome verworfen werden konnten. Die einzige Möglichkeit, die Richtigkeit eines bestimmten Axioms sicher zu erkennen, bestand darin, zu beweisen, dass es beispielsweise Schaeffers Axiome für die Logik erfolgreich reproduzieren konnte.
Es dauerte ein wenig mit den Programmen zu spielen, aber nach ein paar Tagen stellte ich fest, dass die meisten der 25 erhaltenen Axiome nicht funktionierten. Infolgedessen überlebten zwei:
Und zu meiner großen Freude konnte ich mit einem Computer beweisen, dass beide Axiome für Logik sind. Die verwendete Technik garantierte das Fehlen einfacherer Axiome für die Logik. Daher wusste ich, dass ich das Ziel erreicht hatte: Nach einem Jahrhundert (oder vielleicht ein paar Jahrtausenden) der Suche können wir endlich sagen, dass wir das einfachste Axiom für Logik gefunden haben.
Bald darauf entdeckte ich Systeme von zwei Axiomen mit 6 NANDs im Allgemeinen, die, wie ich bewiesen habe, die Logik reproduzieren können:
Und wenn wir die Kommutativität p · q = q · p für selbstverständlich halten, kann die Logik aus dem Axiom erhalten werden, das nur 4 NAND enthält.
Warum ist das wichtig?
Nehmen wir an, es ist sehr cool zu sagen, dass jemand „die von Aristoteles begonnene Arbeit abgeschlossen hat“ (oder zumindest Boole) und das einfachste mögliche System von Axiomen für die Logik entdeckt hat. Ist es nur eine Spielerei oder hat diese Tatsache wichtige Konsequenzen?
Vor der Plattform, die ich in A New Kind of Science entwickelt habe, wäre es meiner Meinung nach schwierig, diese Tatsache als etwas mehr als nur eine Kuriosität zu betrachten. Aber jetzt sollte klar sein, dass es mit allen möglichen grundlegenden Fragen verbunden ist, z. B. ob Mathematik als Entdeckung oder Erfindung betrachtet werden sollte.
Die Mathematik, die Menschen machen, basiert auf einer Handvoll bestimmter Axiomensysteme, von denen jedes einen bestimmten Bereich der Mathematik definiert (Logik, Gruppentheorie, Geometrie, Mengenlehre). Aber abstrakt gesehen gibt es unendlich viele Axiomensysteme, von denen jedes ein Gebiet der Mathematik definiert, das studiert werden kann, auch wenn die Menschen dies noch nicht getan haben.
Vor dem Buch Eine neue Art von Wissenschaft meinte ich anscheinend, dass alles, was „irgendwo da draußen“ im Computeruniversum existiert, „weniger interessant“ sein sollte als das, was Menschen geschaffen und studiert haben. Meine Entdeckungen in Bezug auf einfache Programme zeigen jedoch, dass Systeme, die einfach „irgendwo da draußen“ sind, nicht weniger reichhaltige Möglichkeiten haben als Systeme, die von Menschen sorgfältig ausgewählt wurden.
Was ist also mit dem Axiomensystem für die Mathematik? Um das existierende „irgendwo da draußen“ mit dem zu vergleichen, was die Leute studiert haben, müssen Sie wissen, ob die Axiomensysteme für die existierenden Bereiche der Mathematik liegen, die wir studiert haben. Und basierend auf traditionellen Systemen, die von Menschen geschaffen wurden, können wir daraus schließen, dass sie irgendwo sehr, sehr weit entfernt sein müssen - und im Allgemeinen können sie nur gefunden werden, wenn Sie bereits wissen, wo Sie sich befinden.
Aber meine Entdeckung des Axiomensystems beantwortete die Frage: "Wie weit ist Logik?" Für Dinge wie einen zellularen Automaten ist es ziemlich einfach (wie in den 1980er Jahren), alle möglichen zellularen Automaten zu nummerieren. Mit Axiomensystemen ist das etwas schwieriger - aber nicht viel. In einem Ansatz kann mein Axiom als 411; 3; 7; 118 bezeichnet werden - oder in Wolfram-Sprache:
Und zumindest im Raum möglicher Funktionsformen (ohne Berücksichtigung des Markups von Variablen) gibt es eine visuelle Darstellung des Ortes dieses Axioms:
Angesichts der grundlegenden Bedeutung der Logik für eine so große Anzahl formaler Systeme, die von Menschen studiert werden, würde man denken, dass Logik in jeder vernünftigen Darstellung einem der einfachsten möglichen Axiomensysteme entspricht. Zumindest in einer Präsentation mit NAND ist dies jedoch nicht der Fall. Für sie gibt es immer noch ein sehr einfaches Axiomensystem, aber es wird sich wahrscheinlich als hunderttausend Axiomensystem aus allen möglichen herausstellen, die gefunden werden können, wenn Sie nur anfangen, das Axiomensystem zu nummerieren, beginnend mit dem einfachsten.
Vor diesem Hintergrund wird die naheliegende nächste Frage lauten: Was ist mit all den anderen Axiomensystemen? Wie verhalten sie sich? Es ist diese Ausgabe, die das Buch Eine neue Art von Wissenschaft untersucht. Und darin bestätige ich, dass solche Dinge wie Systeme, die in der Natur beobachtet werden, am besten durch diese „anderen Regeln“ beschrieben werden, die wir durch Nummerierung der Möglichkeiten finden können.
Was die Axiomensysteme betrifft, habe ich ein Bild gemacht, das darstellt, was in den "Bereichen der Mathematik" geschieht, die verschiedenen Axiomensystemen entsprechen. Die Reihe zeigt die Konsequenzen eines bestimmten Axiomensystems, und die Kästchen geben die Wahrheit eines bestimmten Theorems in einem bestimmten Axiomensystem an (ja, irgendwann tritt
Gödels Theorem in Kraft, wonach es unglaublich schwierig wird, ein bestimmtes Theorem in einem bestimmten Axiomensystem zu beweisen oder zu widerlegen; in der Praxis mit Nach meinen Methoden geschieht dies etwas rechts von dem, was auf dem Bild gezeigt wird.
Gibt es in den Bereichen der Mathematik etwas grundlegend Besonderes, das „von Menschen erforscht“ wird? Nach diesem und anderen Bildern zu urteilen, fällt mir nichts Offensichtliches ein. Ich vermute, dass es in diesen Bereichen nur ein Merkmal gibt - die historische Tatsache, dass sie untersucht wurden. (Sie können Aussagen wie "sie beschreiben die reale Welt" oder "in Bezug auf die Funktionsweise des Gehirns" machen, aber die im Buch beschriebenen Ergebnisse legen das Gegenteil nahe).
Welche Bedeutung hat mein Axiomensystem für die Logik? Durch seine Größe fühlen Sie den endgültigen Informationsgehalt der Logik als axiomatisches System. Und es lässt uns - zumindest vorerst - glauben, dass wir Logik eher als „vom Menschen erfundene Konstruktion“ als als „Entdeckung“ betrachten müssen, die aus „natürlichen Gründen“ stattgefunden hat.
Wenn die Geschichte anders verlaufen würde und wir ständig (wie im Buch beschrieben) nach vielen möglichen einfachsten Axiomensystemen suchen würden, würden wir wahrscheinlich das Axiomensystem für die Logik „öffnen“, wie das System, dessen Eigenschaften wir interessant finden. Da wir jedoch eine so kleine Anzahl aller möglichen Axiomensysteme untersucht haben, halte ich es für sinnvoll, Logik als „Erfindung“ zu betrachten - eine speziell geschaffene Konstruktion.
In gewisser Weise sah die Logik im Mittelalter so aus - wenn möglich, wurden Syllogismen (akzeptable Arten von Argumenten) in Form von lateinischen Mnemoniken wie bArbArA und cElErAnt dargestellt. Daher ist es jetzt interessant, eine mnemonische Darstellung dessen zu finden, was wir heute als das einfachste System von Axiomen für die Logik kennen.
Ausgehend von ((p · q) · r) · (p · ((p · r) · p)) = r kann jedes p · q als Präfix oder polnischer Eintrag dargestellt werden (umgekehrt zum „umgekehrten polnischen Eintrag“ des HP-Rechners ) in Form von Dpq - daher kann das gesamte Axiom als = DDDpqrDpDDprpr geschrieben werden. Zu diesem Thema gibt es auch eine englische Mnemonik - FIGure OuT Queue, in der die Rollen p, q, r von u, r, e gespielt werden. Oder Sie können sich die ersten Buchstaben der Wörter im folgenden Satz ansehen (wobei B der Operator ist und p, q, r a, p, c sind): „Stück für Stück berechnet ein Programm das beste binäre Axiom der Booleschen Algebra, das alle Fälle abdeckt“ [ Das beste binäre Axiom der Booleschen Algebra, das mit einem Programm berechnet wird, beschreibt nach und nach alle Fälle.
Beweismechanik
Okay, wie beweisen Sie die Richtigkeit meines Axiomensystems? Das erste, was mir in den Sinn kommt, ist zu zeigen, dass es möglich ist, daraus ein bekanntes System von Axiomen für die Logik abzuleiten - zum Beispiel das Schaeffer-System von Axiomen:
Hier gibt es drei Axiome, und wir müssen jedes ableiten. Folgendes können Sie tun, um die erste Ausgabe mit der neuesten Version von Wolfram Language auszugeben:
Es ist bemerkenswert, dass dies jetzt möglich ist. Im „Beweisobjekt“ steht, dass 54 Schritte für den Beweis verwendet wurden. Basierend auf diesem Objekt können wir ein „Notizbuch“ erstellen, das jeden der Schritte beschreibt:
Im Allgemeinen wird hier die gesamte Abfolge von Zwischen Deckspelzen bewiesen, wodurch wir das Endergebnis ableiten können. Zwischen den Deckspelzen besteht ein ganzes Netzwerk gegenseitiger Abhängigkeiten:
Aber die Netzwerke, die an der Ableitung aller drei Axiome im Scheffer-Axiomensystem beteiligt sind - für letztere werden unglaubliche 504 Schritte verwendet:
Ja, es ist offensichtlich, dass diese Netzwerke ziemlich verwirrend sind. Bevor wir jedoch diskutieren, was diese Komplexität bedeutet, lassen Sie uns darüber sprechen, was bei jedem Schritt dieser Beweise passiert.
Die Hauptidee ist einfach. Stellen Sie sich vor, wir haben ein Axiom, das einfach als p · q = q · p geschrieben wird (mathematisch bedeutet dies, dass der Operator kommutativ ist). Genauer gesagt besagt das Axiom, dass für alle Ausdrücke p und q p · q äquivalent zu q · p ist.
Nehmen wir an, wir wollen aus diesem Axiom ableiten, dass (a · b) · (c · d) = (d · c) · (b · a). Dies kann unter Verwendung des Axioms zum Umwandeln von d · c in c · d, b · a in a · b und schließlich (c · d) · (a · b) in (a · b) · (c · d) erfolgen )
FindEquationalProof macht im Wesentlichen dasselbe, obwohl es diesen Schritten nicht in genau derselben Reihenfolge folgt und sowohl die linke als auch die rechte Seite der Gleichung ändert.
Nachdem Sie einen solchen Nachweis erhalten haben, können Sie einfach jeden Schritt verfolgen und überprüfen, ob er das angegebene Ergebnis liefert. Aber wie findet man Beweise? Es gibt viele mögliche Sequenzen von Permutationen und Transformationen. Wie finde ich eine Sequenz, die erfolgreich zum Endergebnis führt?
Man könnte sich entscheiden: Warum nicht alle möglichen Sequenzen ausprobieren, und wenn es eine Arbeitssequenz unter ihnen gibt, sollte sie schließlich gefunden werden? Das Problem ist, dass Sie schnell zu einer astronomischen Anzahl von Sequenzen gelangen können. Der Großteil der Kunst, Theoreme automatisch zu beweisen, besteht darin, Wege zu finden, um die Anzahl der zu verifizierenden Sequenzen zu verringern.Dies führt schnell zu technischen Details, aber die Grundidee ist leicht zu diskutieren, wenn Sie die Grundlagen der Algebra kennen. Angenommen, wir versuchen, ein algebraisches Ergebnis wie zu beweisenEs gibt einen garantierten Weg, dies zu tun: Wenn Sie einfach die Regeln der Algebra anwenden, um jede Seite zu enthüllen, können Sie sofort ihre Ähnlichkeit erkennen:Warum funktioniert es?
Weil es eine Möglichkeit gibt, mit solchen Ausdrücken zu arbeiten und sie systematisch zu reduzieren, bis sie eine Standardform annehmen. Ist es möglich, dieselbe Operation in beliebigen Axiomensystemen durchzuführen?Nicht sofort. In der Algebra funktioniert dies, weil es eine spezielle Eigenschaft hat, die sicherstellt, dass Sie sich immer auf dem Weg der Vereinfachung von Ausdrücken „bewegen“ können. In den 1970er Jahren entdeckten verschiedene Wissenschaftler mehrmals unabhängig voneinander (unter Namen wie dem Knuth-Bendix-Algorithmus oder der Gröbner-Basis ), dass es auch dann möglich ist, „Ergänzungen“ zu diesem System zu entdecken, wenn das Axiomensystem nicht über die erforderlichen internen Eigenschaften verfügt da ist.Dies geschieht in den typischen Beweisen, die FindEquationalProof (basierend auf Valdmeisters System „Master of Trees“) liefert. Es gibt sogenannte "Kritische Paar-Lemmas", die den Beweis nicht direkt vorantreiben, sondern die Entstehung von dazu fähigen Pfaden ermöglichen. Alles ist kompliziert, weil der letzte Ausdruck, den wir erhalten möchten, zwar ziemlich kurz ist, Sie auf dem Weg dorthin jedoch möglicherweise viel längere Zwischenausdrücke durchlaufen müssen. So hat beispielsweise der Beweis des ersten Schaeffer-Axioms solche Zwischenschritte:In diesem Fall ist der größte der Schritte viermal größer als das ursprüngliche Axiom:Solche Ausdrücke können als Baum dargestellt werden. Hier ist sein Baum im Vergleich zum Baum des ursprünglichen Axioms:Und so entwickeln sich die Größen der Zwischenschritte im Verlauf der Beweise für jedes der Schaeffer-Axiome:Warum ist es so schwer?
Ist es ein Wunder, dass diese Beweise so komplex sind? Nicht wirklich, wirklich. Schließlich wissen wir, dass Mathematik komplex sein kann. Im Prinzip könnte es sein, dass alle Wahrheiten in der Mathematik leicht zu beweisen sind. Eine der Nebenwirkungen von Gödels Theorem von 1931 ist jedoch, dass selbst die Dinge, die Beweise haben, den Weg zu ihnen beliebig lang sein können.Dies ist ein Symptom für ein viel allgemeineres Phänomen, das ich als rechnerische Irreduzibilität bezeichne . Stellen Sie sich ein System vor, das durch eine einfache Regel eines zellularen Automaten gesteuert wird (natürlich wird es in jedem meiner Aufsätze immer zellulare Automaten geben). Führen Sie dieses System aus.Es könnte entschieden werden, dass es einen schnellen Weg geben sollte, um zu verstehen, was das System tut, wenn das System auf einer einfachen Regel basiert. Aber das ist nicht so.
Nach meinem Prinzip der rechnerischen Äquivalenz entspricht der Betrieb eines Systems häufig Berechnungen, deren Komplexität mit allen Berechnungen übereinstimmt, die wir durchführen könnten, um das Verhalten des Systems zu verstehen. Dies bedeutet, dass das tatsächliche Verhalten des Systems tatsächlich einer solchen Menge an Rechenarbeit entspricht, die im Prinzip nicht reduziert werden kann.Zum obigen Bild: Nehmen wir an, wir möchten herausfinden, ob das Muster am Ende stirbt. Wir könnten es weiterhin erfüllen, und wenn wir Glück haben, wird es schließlich zu etwas ausarten, dessen Schicksal offensichtlich sein wird. Im Allgemeinen gibt es jedoch keine Obergrenze dafür, wie viel Zeit wir tatsächlich für den Beweis aufwenden müssen.Wenn so etwas mit logischen Beweisen passiert, passiert es etwas anders. Anstatt etwas zu starten, das nach bestimmten Regeln funktioniert, fragen wir, ob es einen Weg gibt, ein bestimmtes Ergebnis zu erzielen, indem wir mehrere Schritte durchlaufen, von denen jeder einer bestimmten Regel folgt. Und diese Aufgabe als praktische Rechenaufgabe ist viel komplizierter. Das Wesen der Komplexität ist jedoch das gleiche Phänomen der rechnerischen Irreduzibilität, und dieses Phänomen legt nahe, dass es keinen allgemeinen Weg gibt, den Prozess der Untersuchung der Funktionsweise des Systems kurz zu umgehen.Es ist unnötig zu erwähnen, dass es auf der Welt viele Dinge gibt - insbesondere in Bezug auf Technologie und wissenschaftliche Modellierung sowie in Bereichen, in denen es verschiedene Formen von Regeln gibt -, die traditionell darauf ausgelegt sind, rechnerische Irreduzibilität zu vermeiden und so zu arbeiten, dass das Ergebnis ihrer Arbeit sofort sichtbar wird. ohne die Notwendigkeit, eine irreduzible Menge an Berechnungen durchzuführen.Eine der Konsequenzen meines Prinzips der rechnerischen Äquivalenz ist jedoch, dass diese Fälle singulär und unnatürlich sind - er argumentiert, dass rechnerische Irreduzibilität in allen Systemen des rechnerischen Universums existiert.Was ist mit Mathe? Vielleicht werden die Regeln der Mathematik speziell gewählt, um die Rechenreduzierbarkeit zu demonstrieren. In einigen Fällen ist dies der Fall (und in gewissem Sinne geschieht dies auch in der Logik). Aber zum größten Teil scheinen die Axiomensysteme der Mathematik nicht untypisch für den Raum aller möglichen Axiomensysteme zu sein - wo die rechnerische Irreduzibilität unvermeidlich wütet.Warum brauchen wir Beweise?
In gewissem Sinne ist ein Beweis erforderlich, um die Wahrheit von etwas zu erkennen. Natürlich sind gerade in unserer Zeit Beweise in den Hintergrund getreten, die einer reinen Berechnung Platz machen. In der Praxis ist der Wunsch, etwas durch Berechnungen zu erzeugen, viel häufiger als der Wunsch, „zurückzutreten“ und einen Beweis für die Wahrheit von etwas zu konstruieren.
In der reinen Mathematik muss man sich jedoch häufig mit Konzepten befassen, die zumindest nominell eine unendliche Anzahl von Fällen umfassen („wahr für alle Primzahlen“ usw.), für die Stirnberechnungen nicht funktionieren . Und wenn sich die Frage nach der Bestätigung stellt ("Kann dieses Programm mit einem Fehler enden?" Oder "Kann ich diese Kryptowährung zweimal ausgeben?"), Ist es sinnvoller, dies zu beweisen, als alle möglichen Fälle zu berechnen.
In der realen mathematischen Praxis ist der Beweis jedoch mehr als die Feststellung der Wahrheit. Als Euklid seine „
Anfänge “ schrieb, gab er einfach die Ergebnisse an und „überließ sie dem Leser“. Aber auf die eine oder andere Weise, insbesondere im letzten Jahrhundert, haben sich die Beweise zu etwas entwickelt, das nicht nur hinter den Kulissen geschieht, sondern das Hauptmedium ist, über das Konzepte ausgestrahlt werden müssen.
Es scheint mir, dass aufgrund einer Eigenart der Geschichte heute Beweise als ein Objekt angeboten werden, das die Menschen verstehen sollten, und Programme nur als etwas betrachtet werden, das ein Computer ausführen sollte. Warum ist das passiert? Nun, zumindest in der Vergangenheit konnten Beweise in Textform vorgelegt werden - wenn also jemand sie benutzte, dann nur Menschen. Und Programme wurden fast immer in Form einer Computersprache aufgezeichnet. Und für eine sehr lange Zeit wurden diese Sprachen so erstellt, dass sie mehr oder weniger direkt in Computeroperationen auf niedriger Ebene übersetzt werden können - das heißt, der Computer hat sie sofort verstanden, aber die Menschen müssen es nicht.
Eines der Hauptziele meiner Arbeit in den letzten Jahrzehnten war es jedoch, diesen Zustand zu ändern und in Wolfram Language eine echte "Sprache der Computerkommunikation" zu entwickeln, in der Computerideen übertragen werden können, damit sie von Computern und Menschen verstanden werden können.
Eine solche Sprache hat viele Konsequenzen. Eine davon ist die Änderung der Rolle von Beweismitteln. Angenommen, wir betrachten ein mathematisches Ergebnis. In der Vergangenheit bestand der einzig plausible Weg, dies zum Verständnis zu bringen, darin, Beweise dafür zu liefern, dass Menschen lesen. Aber jetzt ist noch etwas möglich: Sie können ein Programm für Wolfram Language ausgeben, das das Ergebnis berechnet. Und dies ist in vielerlei Hinsicht eine viel reichhaltigere Möglichkeit, die Wahrheit des Ergebnisses zu vermitteln. Jeder Teil des Programms ist präzise und eindeutig - jeder kann es starten. Es gibt kein Problem wie Versuche, einen Teil des Textes zu verstehen, bei denen einige Lücken geschlossen werden müssen. Alles ist im Text deutlich angegeben.
Was ist mit den Beweisen? Gibt es klare und präzise Möglichkeiten, Beweise zu schreiben? Möglicherweise ja, obwohl dies nicht besonders einfach ist. Und obwohl es die Wolfram Language Foundation seit 30 Jahren gibt, scheint erst heute ein vernünftiger Weg zu sein, strukturell eindeutige Beweise dafür zu liefern, wie eines meiner obigen Axiome.
Sie können sich vorstellen, Beweise in Wolfram Language auf die gleiche Weise zu erstellen, wie Benutzer Programme erstellen - und wir arbeiten daran, Versionen dieser Funktionalität auf hoher Ebene bereitzustellen, die „bei Beweisen helfen“. Allerdings hat niemand den Beweis für mein Axiomensystem erstellt - ein Computer hat ihn gefunden. Und dies ist eher die Ausgabe des Programms als das Programm selbst. In gewisser Weise kann der Proof jedoch wie ein Programm auch „ausgeführt“ werden, um das Ergebnis zu überprüfen.
Klarheit schaffen
Meistens möchten Leute, die die Wolfram-Sprache oder Wolfram | Alpha verwenden, etwas zählen. Sie müssen das Ergebnis erhalten und nicht verstehen, warum sie genau solche Ergebnisse erhalten haben. In Wolfram | Alpha, insbesondere in Bereichen wie Mathematik und Chemie, ist die Konstruktion von "Schritt-für-Schritt" -Lösungen ein beliebtes Merkmal der Studenten.
Wenn das Wolfram | Alpha-System beispielsweise ein Integral berechnet, verwendet es alle Arten leistungsfähiger algorithmischer Techniken, die für den Empfang von Antworten optimiert sind. Wenn sie jedoch aufgefordert wird, die Phasen der Berechnungen zu zeigen, tut sie etwas anderes: Sie muss schrittweise erklären, warum dies das erzielte Ergebnis ist.
Es wäre nicht vorteilhaft zu erklären, wie das Ergebnis tatsächlich erzielt wurde. Dies ist ein sehr unangemessener Prozess für den Menschen. Sie muss verstehen, mit welchen Operationen Menschen lernen können, um ein Ergebnis zu erzielen. Oft fällt ihr ein nützlicher Trick ein. Ja, sie hat einen systematischen Weg, der immer funktioniert. Aber es gibt zu viele "mechanische" Stufen. Ein „Trick“ (Substitution, teilweise Integration usw.) funktioniert im allgemeinen Fall nicht, aber in diesem speziellen Fall gibt er einen schnelleren Weg zur Antwort.
Was ist mit klaren Versionen anderer Dinge? Zum Beispiel die Arbeit von Programmen im allgemeinen Fall. Oder Beweise für mein Axiomensystem.
Beginnen wir mit den Programmen. Angenommen, wir haben ein Programm geschrieben und möchten erklären, wie es funktioniert. Einer der traditionellen Ansätze besteht darin, Kommentare in den Code aufzunehmen. Wenn wir in einer traditionellen Landessprache schreiben, ist dies möglicherweise der beste Ausweg. Das Wesentliche an Wolfram Language als Sprache der Computerkommunikation ist jedoch, dass die Sprache selbst die Übermittlung von Ideen ermöglichen sollte, ohne dass zusätzliche Textstücke eingefügt werden müssen.
Es müssen Anstrengungen unternommen werden, um das Wolfram-Sprachprogramm zu einer guten Beschreibung des Prozesses zu machen und um einfachen englischen Text zu einer guten Beschreibung des Prozesses zu machen. Sie können jedoch einen Teil des Wolfram-Sprachcodes erhalten, der sehr deutlich erklärt, wie alles für sich funktioniert.
Natürlich kommt es häufig vor, dass die tatsächliche Ausführung des Codes zu Dingen führt, die sich nicht offensichtlich aus dem Programm ergeben. Ich werde bald extreme Fälle wie zellulare Automaten erwähnen. Stellen wir uns vorerst vor, wir hätten ein Programm erstellt, mit dem wir uns vorstellen können, was es im Allgemeinen tut.
In diesem Fall fand ich, dass die als Wolfram-Notizbücher präsentierten Computeraufsätze ein großartiges Werkzeug sind, um zu erklären, was passiert. Es ist wichtig, dass Wolfram Language es Ihnen ermöglicht, auch die kleinsten Teile von Programmen separat auszuführen (mit den entsprechenden symbolischen Ausdrücken als Eingabe- und Ausgabedaten). Danach können Sie sich die Abfolge der Programmschritte als eine Abfolge von Elementen des Dialogs vorstellen, die die Grundlage des Computer-Notizbuchs bilden.
In der Praxis ist es häufig erforderlich, Visualisierungen der Eingabe- und Ausgabedaten zu erstellen. Ja, alles kann als eindeutige symbolische Darstellung ausgedrückt werden. Für Menschen ist es jedoch viel einfacher, die visuelle Darstellung von Dingen zu verstehen, als jede eindimensionale sprachähnliche Linie.
Gute Visualisierungen zu erstellen ist natürlich Kunst ähnlich. Aber bei Wolfram Language haben wir viel Arbeit geleistet, um diese Kunst zu automatisieren - oft mit Hilfe von ziemlich ausgefeiltem maschinellem Lernen und anderen Algorithmen, die Dinge wie das Layout von Netzwerken oder grafischen Elementen ausführen.
Wie wäre es mit einem einfachen Programm-Tracking? Das ist schwer zu machen. Ich habe jahrzehntelang damit experimentiert und war mit den Ergebnissen nie ganz zufrieden. Ja, Sie können zoomen und viele Details sehen, was gerade passiert. Aber ich habe nicht genug gute Techniken gefunden, um das ganze Bild zu verstehen und automatisch einige besonders nützliche Dinge herauszugeben.
In gewisser Hinsicht ähnelt diese Aufgabe dem Reverse Engineering. Ihnen wird ein Maschinencode angezeigt, eine Chipschaltung, was auch immer. Und Sie müssen einen Schritt zurücktreten und die allgemeine Beschreibung neu erstellen, von der die Person abgestoßen hat, die sich irgendwie zu dem „kompiliert“ hat, was Sie sehen.
Beim traditionellen Engineering-Ansatz kann dieser Ansatz im Prinzip funktionieren, wenn Menschen ein Produkt schrittweise erstellen und immer die Fähigkeit haben, die Konsequenzen dessen, was sie erstellen, vorauszusehen. Aber wenn Sie stattdessen einfach auf der Suche nach einem optimalen Programm durch das Computeruniversum wandern (da ich nach möglichen Axiomensystemen gesucht habe, um ein System für Logik zu finden), gibt es keine Garantie dafür, dass hinter diesem Programm eine „menschliche Geschichte“ oder Erklärung steckt.
Ein ähnliches Problem tritt in den Naturwissenschaften auf. Sie sehen, wie sich in einem biologischen System eine komplexe Reihe von Prozessen aller Art entwickelt. Ist es möglich, sie einem „Reverse Engineering“ zu unterziehen, um eine „Erklärung“ zu finden? Es kann manchmal gesagt werden, dass Evolution mit natürlicher Selektion dazu führen wird. Oder dass es häufig im Computeruniversum gefunden wird, sodass die Wahrscheinlichkeit seines Auftretens hoch ist. Es gibt jedoch keine Garantie dafür, dass die natürliche Welt notwendigerweise so gestaltet ist, dass die Menschen sie erklären können.
Natürlich berücksichtigen wir beim Modellieren unweigerlich nur die Aspekte, die uns interessieren, und idealisieren alles andere. Und besonders in Bereichen wie der Medizin muss man oft mit einem ungefähren Modell mit einem flachen Entscheidungsbaum arbeiten, was leicht zu erklären ist.
Die Art der Erklärbarkeit
Was bedeutet der Ausdruck "etwas kann erklärt werden"? Im Wesentlichen bedeutet dies, dass die Menschen es verstehen können.
Was wird von Menschen verlangt, um etwas zu verstehen? Wir müssen das irgendwie realisieren. Nehmen Sie einen typischen zellularen Automaten mit komplexem Verhalten. Der Computer hat keine Probleme, um jeden Schritt seiner Entwicklung zu durchlaufen. Mit enormen Anstrengungen und Arbeit könnte eine Person die Arbeit eines Computers reproduzieren.
Es kann jedoch nicht gesagt werden, dass in diesem Fall eine Person "verstehen" würde, was ein zellularer Automat tut. Dazu müsste eine Person leicht über das Verhalten eines zellularen Automaten auf hohem Niveau sprechen. Mit anderen Worten, eine Person sollte in der Lage sein, eine Geschichte über das Verhalten eines Automaten zu erzählen, die andere Menschen verstehen könnten.
Gibt es einen universellen Weg, dies zu tun? Nein, aufgrund von rechnerischer Irreduzibilität. Es kann jedoch vorkommen, dass bestimmte Funktionen, die für Menschen wichtig sind, mit bestimmten Einschränkungen auf hoher Ebene erklärt werden können.
Wie funktioniert es Dazu müssen Sie eine bestimmte Hochsprache erstellen, die die Funktionen beschreibt, die uns interessieren. Wenn man eine typische Zeichnung des zellularen Automaten studiert, kann man versuchen, nicht von Farben einer großen Anzahl einzelner Zellen zu sprechen, sondern von Strukturen einer höheren Ebene, die erkannt werden können. Die Hauptsache ist, dass Sie zumindest einen Teilkatalog solcher Strukturen zusammenstellen können: Obwohl es viele Details gibt, die nicht in die Klassifizierung passen, sind bestimmte Strukturen üblich.
Und wenn wir anfangen wollen, das Verhalten eines zellularen Automaten zu „erklären“, werden wir zunächst die Strukturen benennen und dann darüber sprechen, was unter dem Gesichtspunkt dieser Strukturen geschieht.
Der Fall eines zellularen Automaten hat ein vereinfachendes Merkmal: Da er auf der Grundlage einfacher deterministischer Regeln arbeitet, weist er gleichermaßen sich wiederholende Strukturen auf. In der Natur zum Beispiel begegnen wir normalerweise keiner solchen identischen Wiederholung. Es gibt nur einen, zum Beispiel einen Tiger, der dem anderen sehr ähnlich ist, deshalb nennen wir sie beide "Tiger", obwohl die Anordnung ihrer Atome nicht identisch ist.
Was ist die allgemeine Bedeutung von all dem? Es besteht darin, die Idee der symbolischen Darstellung zu verwenden. Wir sagen, dass wir ein bestimmtes Symbol - oft dieses Wort - zuweisen können, mit dem eine ganze Klasse von Dingen symbolisch beschrieben werden kann, ohne jedes Detail aller Komponenten dieser Dinge detailliert auflisten zu müssen.
Dies ähnelt der Informationskomprimierung: Wir verwenden symbolische Konstruktionen, um einen kürzeren Weg zu finden, um Dinge zu beschreiben, die uns interessieren.
Angenommen, wir haben eine gigantische Struktur erzeugt, zum Beispiel eine mathematische:
Der erste Schritt besteht darin, eine Art interne Repräsentation auf hoher Ebene zu erstellen. Zum Beispiel können wir wiederverwendbare Strukturen erkennen. Und wir können ihnen Namen geben. Und dann zeigen Sie mit ihrer Hilfe das "Skelett" der gesamten Struktur:
Ja, dieses Schema ist ähnlich wie die „Wörterbuchkomprimierung“ nützlich, um die erste Stufe der Erklärbarkeit zu erreichen.
Aber kommen wir zurück zum Beweis meines Axiomensystems. Die in diesem Proof erstellten Deckspelzen werden speziell als wiederverwendbare Elemente ausgewählt. Wenn wir sie jedoch ausschließen, bleiben uns immer noch Beweise, die die Menschen nicht sofort verstehen können.
Was können Sie noch tun? Wir müssen uns eine Beschreibung einer noch höheren Ebene einfallen lassen. Was könnte es sein?
Konzept der Konzepte
Wenn Sie versuchen, jemandem etwas zu erklären, ist es viel einfacher, dies zu tun, wenn Sie etwas anderes finden, aber ähnlich, das eine Person bereits verstehen könnte. Stellen Sie sich vor, wie Sie einer Person aus der Steinzeit das Konzept einer modernen Drohne erklären. Es wird schwierig sein. Aber es wird viel einfacher sein, dies einer Person zu erklären, die vor 50 Jahren lebte und bereits Hubschrauber und Modellflugzeuge gesehen hat.
Und am Ende lautet das Fazit: Wenn wir etwas erklären, tun wir es in einer Sprache, die sowohl uns als auch derjenigen bekannt ist, der wir es erklären. Und je reicher die Sprache, desto weniger neue Elemente müssen wir einführen, um zu vermitteln, was wir zu erklären versuchen.
Es gibt ein Muster, das sich in der gesamten Geschichte des Geistes wiederholt. Eine bestimmte Reihe von Dingen wird oft bemerkt. Allmählich beginnen sie zu verstehen, dass diese Dinge irgendwie abstrakt ähnlich sind, und alle können mit einem neuen Konzept beschrieben werden, das in einem neuen Wort oder einer neuen Phrase beschrieben wird.
Angenommen, wir bemerken Dinge wie Wasser, Blut und Öl. Irgendwann verstehen wir, dass es ein verallgemeinertes Konzept von „flüssig“ gibt, und alle können als flüssig bezeichnet werden. Und wenn wir ein solches Konzept haben, können wir anfangen, in seinen Begriffen zu argumentieren und mehr Konzepte zu finden - sagen wir Viskosität, basierend darauf.
Wann ist es sinnvoll, Dinge zu einem Konzept zusammenzufassen? Eine schwierige Frage, die nicht beantwortet werden kann, ohne alles vorauszusehen, was mit diesem Konzept erreicht werden kann. In der Praxis wird im Verlauf der Entwicklung der Sprache und der Ideen einer Person ein bestimmter Prozess der sukzessiven Annäherung beobachtet.
In dem modernen maschinellen Lernsystem erfolgt eine viel schnellere Summierung von Informationen. Stellen Sie sich vor, wir hätten alle möglichen Objekte auf der ganzen Welt genommen und ihnen
FeatureSpacePlot- Funktionen zugeführt,
um zu sehen, was passiert. Wenn wir bestimmte Cluster im Raum von Merkmalen erhalten, können wir daraus schließen, dass jeder von ihnen als einem bestimmten „Konzept“ entsprechend definiert werden kann, das beispielsweise mit einem Wort markiert werden kann.
Ehrlich gesagt ist das, was mit FeatureSpacePlot passiert - wie im Prozess der menschlichen intellektuellen Entwicklung - in gewissem Sinne ein schrittweiser Prozess. Um Objekte nach Feature-Space zu verteilen, verwendet FeatureSpacePlot Features, die es aus früheren Kategorisierungsversuchen extrahiert hat.
Nun, wenn wir die Welt so akzeptieren, wie sie ist, welche Kategorien - oder Konzepte - können verwendet werden, um Dinge zu beschreiben? Diese Frage entwickelt sich ständig weiter. Im Allgemeinen sind alle Durchbrüche - sei es Wissenschaft, Technologie oder etwas anderes - oft genau mit der Realisierung der Möglichkeit verbunden, eine neue Kategorie oder ein neues Konzept auf nützliche Weise zu identifizieren.
Aber im Evolutionsprozess unserer Zivilisation gibt es eine gewisse Spirale. Zunächst wird ein bestimmtes Konzept definiert - sagen wir die Idee eines Programms. Danach beginnen die Leute, es zu benutzen und in seinen Begriffen zu reflektieren. Auf der Grundlage dieses Konzepts werden bald viele verschiedene Konzepte erstellt. Und dann wird eine andere Abstraktionsebene bestimmt, neue Konzepte basierend auf der vorherigen werden erstellt.
Die Geschichte ist charakteristisch für das technologische Wissen der modernen Zivilisation und ihr intellektuelles Wissen. Sowohl dort als auch dort gibt es Türme von Konzepten und Abstraktionsebenen, die nacheinander verlaufen.
Lernproblem
Damit Menschen mit einem bestimmten Konzept kommunizieren können, müssen sie darüber Bescheid wissen. Und ja, einige Konzepte (wie die Konstanz von Objekten) werden von Menschen automatisch erkannt, indem sie einfach die Natur beobachten. Nehmen wir jedoch an, wenn Sie sich die Liste der gebräuchlichen Wörter des modernen Englisch ansehen, wird klar, dass die meisten Konzepte unserer modernen Zivilisation nicht für diejenigen gelten, die sich der Menschen bewusst sind und die Natur beobachten.
Stattdessen - was sehr an modernes maschinelles Lernen erinnert - benötigen sie ein spezielles Wissen über die Welt "unter Aufsicht", das organisiert ist, um die Bedeutung bestimmter Konzepte hervorzuheben. Und in abstrakteren Bereichen (wie der Mathematik) müssen sie wahrscheinlich auf Konzepte in ihrer unmittelbaren abstrakten Form stoßen.
Nun, aber müssen wir mit der Zunahme des gesammelten intellektuellen Wissens über die Zivilisation immer mehr lernen? Es kann Bedenken geben, dass unser Gehirn irgendwann einfach nicht mehr mit der Entwicklung Schritt halten kann und wir zusätzliche Hilfe hinzufügen müssen. Aber es scheint mir, dass dies glücklicherweise einer der Fälle ist, in denen das Problem "auf Software-Ebene" gelöst werden kann.
Das Problem ist folgendes: Zu jedem Zeitpunkt in der Geschichte gibt es eine Reihe von Konzepten, die für das Leben in der Welt in dieser Zeit wichtig sind. Und ja, mit der Entwicklung der Zivilisation werden neue Konzepte enthüllt und neue Konzepte eingeführt.
Es gibt jedoch einen anderen Prozess: Neue Konzepte führen neue Abstraktionsebenen ein, die normalerweise eine große Anzahl früherer Konzepte umfassen.Wir können dies oft in der Technologie beobachten. Es gab eine Zeit, in der Sie viele Details auf niedriger Ebene kennen mussten, um an einem Computer arbeiten zu können. Im Laufe der Zeit wurden diese Details jedoch abstrahiert, sodass Sie nur noch ein allgemeines Konzept benötigen. Sie klicken auf das Symbol und der Prozess beginnt - Sie müssen die Feinheiten des Betriebs von Betriebssystemen, Interrupt-Handlern, Schedulern und allen anderen Details nicht verstehen.Und natürlich bietet Wolfram Language ein gutes Beispiel dafür. Es erfordert viel Aufwand bei der Automatisierung vieler Details auf niedriger Ebene (z. B. welcher der Algorithmen verwendet werden sollte) und ermöglicht es Benutzern, in Konzepten auf hoher Ebene zu denken.Ja, es werden immer noch Menschen benötigt, die die Details verstehen, die Abstraktionen zugrunde liegen (obwohl ich nicht sicher bin, wie viele Steinmetze die moderne Gesellschaft benötigt). Die Bildung kann sich jedoch größtenteils auf ein hohes Maß an Wissen konzentrieren.Es wird oft angenommen, dass eine Person, um im Lernprozess Konzepte auf hoher Ebene zu erreichen, zunächst die Geschichte der Entstehung dieser Konzepte historisch zusammenfassen muss. Aber normalerweise - und vielleicht immer - scheint es nicht so zu sein. Sie können ein extremes Beispiel geben: Stellen Sie sich vor, Sie müssen zunächst die gesamte Geschichte der mathematischen Logik durchgehen, um den Umgang mit einem Computer zu erlernen. Es ist jedoch bekannt, dass sich die Menschen sofort modernen Computerkonzepten zuwenden, ohne eine Art Geschichte studieren zu müssen.Aber wie sieht dann die Klarheit des Netzwerks von Konzepten aus? Gibt es Konzepte, die nur durch das Verständnis anderer Konzepte verstanden werden können? Angesichts der Ausbildung von Menschen auf der Grundlage der Interaktion mit der Umwelt (oder der Ausbildung eines neuronalen Netzwerks) kann ihre Reihenfolge wahrscheinlich bestehen.Aber es scheint mir, dass ein bestimmtes Prinzip, ähnlich der Universalität des Rechnens, nahe legt, dass man mit einem „reinen Gehirn“ von überall aus beginnen kann. Wenn also einige Außerirdische etwas über Kategorietheorie und fast nichts anderes lernen würden, würden sie ohne Zweifel ein Netzwerk von Konzepten aufbauen, in denen diese Theorie die Wurzel bildet, und was wir als Grundlagen der Arithmetik kennen, würde daraus studiert irgendwo im Analogon unseres Instituts.Natürlich könnten solche Außerirdischen ihre Technologien und ihre Umgebung auf eine ganz andere Weise als wir aufbauen - genau wie unsere Geschichte völlig anders werden könnte, wenn Computer im 19. Jahrhundert und nicht Mitte des 20. Jahrhunderts erfolgreich entwickelt werden könnten.Mathe Fortschritt
Ich habe oft darüber nachgedacht, inwieweit die historische Entwicklung der Mathematik der Rolle des Zufalls unterliegt und inwieweit dies unvermeidlich war. Wie ich bereits erwähnt habe, gibt es auf der Ebene der formalen Systeme viele mögliche Axiomensysteme, auf denen Sie etwas konstruieren können, das formal der Mathematik ähnelt.Die wahre Geschichte der Mathematik begann jedoch nicht mit einem willkürlichen Axiomensystem. Es begann in der Zeit der Babylonier mit Versuchen, Arithmetik für den Handel und für die Geometrie zum Zweck der Landentwicklung zu verwenden. Und von diesen praktischen Wurzeln aus wurden nachfolgende Abstraktionsebenen hinzugefügt, die schließlich zur modernen Mathematik führten - zum Beispiel wurden Zahlen allmählich von positiven ganzen Zahlen zu rationalen, dann zu Wurzeln, dann zu allen ganzen Zahlen, zu Dezimalbrüchen, zu komplexen Zahlen, zu algebraischen verallgemeinert Zahlenzu Quaternionen und so weiter.Gibt es eine Unvermeidlichkeit eines solchen Entwicklungspfades für Abstraktionen? Ich vermute bis zu einem gewissen Grad ja. Vielleicht ist dies bei anderen Arten der Konzeptbildung der Fall. Wenn Sie ein bestimmtes Niveau erreicht haben, haben Sie die Möglichkeit, verschiedene Dinge zu studieren, und im Laufe der Zeit werden Gruppen dieser Dinge zu Beispielen für allgemeinere und abstraktere Konstruktionen - die wiederum ein neues Niveau bestimmen, von dem man etwas Neues lernen kann.Gibt es Möglichkeiten, aus diesem Kreislauf auszubrechen? Eine Möglichkeit kann mit mathematischen Experimenten zusammenhängen. Man kann systematisch Dinge beweisen, die mit bestimmten mathematischen Systemen zusammenhängen. Aber man kann empirisch nur mathematische Fakten bemerken - wie Ramanujan habe das mal bemerkt So wie man Axiomensysteme nummerieren kann, kann man sich die Nummerierung möglicher Fragen in der Mathematik vorstellen. Dies wirft jedoch sofort ein Problem auf. Der Satz von Gödel besagt, dass es in Axiomensystemen wie dem der Arithmetik „formal unlösbare“ Theoreme gibt, die im Rahmen dieses Axiomensystems nicht bewiesen oder widerlegt werden können.Die konkreten Beispiele von Gödel schienen jedoch sehr weit von dem entfernt zu sein, was im Mathematikunterricht tatsächlich entstehen könnte. Und lange Zeit glaubte man, dass das Phänomen der Unlösbarkeit in gewisser Weise etwas ist, das im Prinzip existiert, aber nicht mit „echter Mathematik“ in Verbindung gebracht wird.Nach meinem Prinzip der rechnerischen Äquivalenz und meiner Erfahrung im rechnerischen Universum bin ich mir jedoch fast sicher, dass dies nicht der Fall ist - und dass die Unlösbarkeit selbst in der typischen Mathematik sehr nahe beieinander liegt. Es würde mich nicht wundern, wenn ein konkreter Teil der heute ungelösten Probleme der Mathematik (die Riemann-Hypothese , P = NP usw.) unlösbar wäre.Aber wenn es eine Menge Unlösbarkeit gibt, wie kommt es dann, dass so viele Dinge in der Mathematik erfolgreich gelöst werden? Ich denke, das liegt daran, dass erfolgreich gelöste Probleme speziell ausgewählt wurden, um Unlösbarkeit zu vermeiden, einfach weil die Entwicklung der Mathematik so aufgebaut ist. Denn wenn wir tatsächlich aufeinanderfolgende Abstraktionsebenen auf der Grundlage von Konzepten bilden, die wir bewiesen haben, dann ebnen wir den Weg, der vorwärts gehen kann, ohne sich in Unlöslichkeit zu verwandeln.Experimentelle Mathematik oder „zufällige Fragen“ können uns natürlich sofort in einen Bereich führen, der voller Unlösbarkeit ist. Aber zumindest vorerst hat sich die Grunddisziplin der Mathematik nicht so entwickelt.Und was ist mit diesen "zufälligen Fakten der Mathematik"? Ja, genauso wie in anderen Bereichen der intellektuellen Forschung. „Zufällige Fakten“ werden erst dann in den Weg der intellektuellen Entwicklung einbezogen, wenn eine Struktur - normalerweise einige abstrakte Konzepte - um sie herum aufgebaut ist.Ein gutes Beispiel ist meine Lieblingsentdeckung des Ursprungs der Komplexität in solchen Systemen, normalerweise 30 zellularen Automaten. Ja, ähnliche Phänomene wurden bereits vor Tausenden von Jahren beobachtet (zum Beispiel Zufälligkeit in einer Folge von Primzahlen). Aber ohne eine breitere konzeptionelle Plattform haben nur wenige Menschen auf sie geachtet.Ein weiteres Beispiel sind verschachtelte Sequenzen (Fraktale). Es gibt einige Beispiele dafür, wie sie sich im Mosaik des 13. Jahrhunderts kennengelernt haben, aber niemand hat ihnen Aufmerksamkeit geschenkt, bis in den 1980er Jahren eine ganze Plattform um Fraktale entstand.Die gleiche Geschichte wiederholt sich immer wieder: Bis abstrakte Konzepte definiert sind, ist es schwierig, über neue Konzepte zu sprechen, selbst wenn man mit einem Phänomen konfrontiert wird, das sie demonstriert.Ich vermute, dass dies in der Mathematik der Fall ist: Es gibt eine gewisse unvermeidliche Überlagerung einiger abstrakter Konzepte mit anderen, die den Weg der Mathematik bestimmt. Ist dieser Weg einzigartig? Kein Zweifel, nein. In dem weiten Raum möglicher mathematischer Fakten gibt es bestimmte Richtungen, die für weitere Konstruktionen ausgewählt werden. Aber du könntest andere wählen.Bedeutet dies, dass Themen in der Mathematik unweigerlich von historischen Unfällen bestimmt werden? Nicht so viel wie du vielleicht denkst. In der Tat gibt es, da die Mathematik immer wieder entdeckt wurde, beginnend mit Dingen wie Algebra und Geometrie, eine bemerkenswerte Tendenz, in der unterschiedliche Richtungen und unterschiedliche Ansätze zu äquivalenten oder einander entsprechenden Ergebnissen führen.Vielleicht ist dies bis zu einem gewissen Grad eine Folge des Prinzips der rechnerischen Äquivalenz und des Phänomens der rechnerischen Universalität: Obwohl sich die in verschiedenen Bereichen der Mathematik verwendeten Grundregeln (oder „Sprache“) unterscheiden, gibt es am Ende eine Art der Übersetzung zwischen ihnen - und auf der nächsten Abstraktionsebene Der gewählte Pfad wird nicht mehr so kritisch sein.Logischer Beweis und Automatisierung der Abstraktion
Zurück zu den logischen Beweisen. Wie hängen sie mit typischer Mathematik zusammen? Bisher auf keinen Fall. Ja, der Beweis hat nominell dieselbe Form wie der mathematische Standardbeweis. Aber es ist nicht "freundlich zu Mathematikern". Dies sind nur mechanische Teile. Es ist nicht mit abstrakten Konzepten auf hoher Ebene verbunden, die für die menschliche Mathematik verständlich sind.Es würde uns sehr helfen, wenn wir feststellen würden, dass nicht-triviale Beweis-Lemmas bereits in der mathematischen Literatur vorkommen (ich glaube nicht, aber unsere Suchmöglichkeiten nach Theoremen haben noch nicht ein solches Niveau erreicht, dass wir sicher sein können). Aber wenn sie erscheinen, wird es uns wahrscheinlich eine Möglichkeit geben, diese Deckspelzen mit anderen Dingen in der Mathematik zu verbinden und ihren Kreis abstrakter Konzepte zu definieren.Aber wie können Beweise ohne dies erklärbar gemacht werden?Vielleicht gibt es einen anderen Weg, um den Beweis zu erbringen, der wesentlich stärker mit der bestehenden Mathematik zusammenhängt. Aber selbst mit den Beweisen, die wir jetzt haben, kann man sich vorstellen, neue Konzepte zu „optimieren“, die eine höhere Abstraktionsebene definieren und diesen Beweis in einen allgemeineren Kontext stellen würden.Ich bin mir nicht sicher, wie ich das machen soll. Ich dachte darüber nach, einen Preis zu nominieren (so etwas wie mein Turing Award 2007)) für "Beweise in eine verständliche Form verwandeln". Es ist jedoch völlig unverständlich, wie man die „Erklärbarkeit“ bewerten kann. Man könnte gebeten werden, ein einstündiges Video aufzunehmen, in dem eine erfolgreiche Erklärung des Beweises gegeben wird, das für einen typischen Mathematiker geeignet ist - aber das wäre sehr subjektiv.Aber genauso wie es möglich ist, die Suche nach schönen Layouts von Netzwerken zu automatisieren, können wir vielleicht den Prozess automatisieren, Beweise in erklärbare zu verwandeln. Der derzeitige Beweis deutet tatsächlich ohne Erklärung darauf hin, mehrere hundert Deckspelzen in Betracht zu ziehen. Nehmen wir jedoch an, wir könnten eine kleine Anzahl von „interessanten“ Deckspelzen definieren. Vielleicht könnten wir sie irgendwie zu unserem Kanon der berühmten Mathematik hinzufügen und sie dann verwenden, um den Beweis zu verstehen.Es gibt eine Analogie zur Entwicklung von Sprachen. Durch die Erstellung der Wolfram-Sprache versuche ich, die „Computerarbeit“ zu identifizieren, die Menschen häufig benötigen. Wir erstellen aus ihnen in die Sprache integrierte Funktionen mit bestimmten Namen, mit denen Personen auf sie verweisen können.Ein ähnlicher Prozess ist in der Entwicklung der natürlichen Sprachen im Gange - wenn auch überhaupt nicht so organisiert. "Bedeutungsstücke", die sich als nützlich herausstellen, erhalten schließlich ihre Worte in der Sprache. Manchmal beginnen sie mit Phrasen, die aus mehreren vorhandenen Wörtern bestehen. Die einflussreichsten Wörter sind jedoch in der Regel so weit von vorhandenen Wörtern entfernt, dass sie in Form neuer Wörter erscheinen, die möglicherweise schwer zu definieren sind.Bei der Entwicklung der Wolfram-Sprache, deren Funktionen mit englischen Wörtern aufgerufen werden, verlasse ich mich auf das allgemeine Verständnis einer Person für die englische Sprache (und manchmal auf das Verständnis der in gängigen Computeranwendungen verwendeten Wörter).Man müsste etwas Ähnliches tun, um zu bestimmen, welche Deckspelzen dem mathematischen Kanon hinzugefügt werden sollen. Es müsste nicht nur sichergestellt werden, dass jedes Lemma irgendwie „im Wesentlichen interessant“ ist, sondern auch Lemmas ausgewählt werden, die aus vorhandenen mathematischen Konzepten und Ergebnissen „leicht abzuleiten“ sind.Aber was macht das Lemma „im Wesentlichen interessant“? Ich muss sagen, bevor ich an meinem Buch arbeitete, habe ich willkürliche Willkür und historische Unfälle bei der Auswahl von Deckspelzen (oder Türmen) in jedem Bereich der Mathematik beschuldigt, die in Lehrbüchern beschrieben und benannt sind.Nachdem ich Theoreme aus der Grundlogik im Detail analysiert hatte, war ich überrascht, etwas völlig anderes zu finden. Angenommen, wir haben alle korrekten Sätze der Logik in der Reihenfolge ihrer Größe erstellt(zum Beispiel wird p = p das erste sein, p UND p = p - etwas später usw.). Diese Liste hat viel Redundanz. Die meisten Theoreme erweisen sich als triviale Erweiterung der Theoreme, die bereits auf der Liste aufgeführt sind.Manchmal erscheint jedoch ein Theorem, das neue Informationen hervorbringt, die auf der Grundlage von Theoremen, die bereits in der Liste enthalten sind, nicht bewiesen werden können. Eine bemerkenswerte Tatsache: Es gibt 14 solcher Theoreme , und sie entsprechen im Wesentlichen genau den Theoremen, die normalerweise in Lehrbüchern über Logik benannt werden (hier ist AND ∧, OR ist ∨ und NOT ist ¬.)Mit anderen Worten, in diesem Fall sind die genannten oder „interessanten“ Theoreme genau diejenigen, die Aussagen über neue Informationen mit einer Mindestgröße treffen. Ja, nach dieser Definition werden nach einiger Zeit keine neuen Informationen mehr vorhanden sein, da wir alle Axiome erhalten, die erforderlich sind, um alles Mögliche zu beweisen - obwohl Sie noch weiter gehen können, indem Sie beginnen, die Komplexität der zulässigen Beweise zu begrenzen.Was ist mit NAND-Theoremen, zum Beispiel denen, die im Beweis gefunden wurden? Auch hier können Sie alle wahren Theoreme der Reihe nach erstellen und anhand der vorherigen Theoreme aus der Liste herausfinden, welche nicht bewiesen werden können:NAND hat keine historische Tradition wie AND, OR und NOT. Und anscheinend gibt es keine menschliche Sprache, in der NAND mit einem Wort bezeichnet wird. In der Liste der NAND-Theoreme ist der erste der oben genannten Punkte jedoch leicht als Kommutativität von NAND zu erkennen. Danach werden nur noch wenige Übersetzungen benötigt, um ihnen Namen zu geben: a = (a · a) · (a · a) ist wie doppelte Negation, a = (a · a) · (a · b) ist wie das Gesetz der Absorption , (a · A) · b = (a · b) · b ähnelt "Schwächung" und so weiter.Nun, wenn wir ein paar „Schlüsselsätze“ der NAND-Logik lernen wollen, welche Art von Theoremen sollten diese sein? Vielleicht sollten dies in den Beweisen „populäre Deckspelzen“ sein.Natürlich kann jeder Satz viele mögliche Beweise haben. Angenommen, wir verwenden nur die von FindEquationalProof erstellten Beweise. Dann stellt sich heraus, dass im Beweis der ersten tausend NAND-Sätze das beliebteste Lemma a · a = a · ((a · a) · a) ist, gefolgt von Lemmas vom Typ (a · ((a · a) · a)) · ( a (a ((a a) a))) = a.Was sind diese Deckspelzen? Sie sind nützlich für die von FindEquationalProof verwendeten Methoden. Aber für Menschen scheinen sie nicht sehr geeignet zu sein.Was ist mit Deckspelzen, die sich als kurz herausstellen? a · b = b · a ist definitiv nicht das beliebteste, aber das kürzeste. (a · a) · (a · a) = a ist populärer, aber länger. Und dann gibt es solche Deckspelzen wie (a · a) · (b · a) = a.Wie nützlich werden diese Deckspelzen sein? Hier ist eine Möglichkeit, dies zu überprüfen. Schauen wir uns die ersten tausend NAND-Theoreme an und bewerten wir, wie die Hinzufügung von Lemmas die Beweise dieser Theoreme verkürzt (zumindest die von FindEquationalProof gefundenen):a · b = b · a ist sehr erfolgreich und schneidet den Beweis oft um fast 100 Schritte. (a · a) · (a · a) = a ist viel weniger erfolgreich; Manchmal „verwirrt“ es FindEquationalProof sogar und zwingt Sie dazu, mehr Schritte als nötig zu unternehmen (negative Werte in den Diagrammen). (a · a) · (b · a) = a kommt gut mit Kontraktion zurecht, aber nicht so gut wie a · b = b · a. Wenn Sie es jedoch mit a · b = b · a kombinieren, treten Reduzierungen infolgedessen häufiger auf.Die Analyse kann beispielsweise fortgesetzt werden, indem ein Vergleich darüber aufgenommen wird, um wie viel ein bestimmtes Lemma die Länge der Beweise in Bezug auf ihre ursprüngliche Länge verkürzt. Das Problem ist jedoch, dass, wenn Sie einige „nützliche Deckspelzen“ wie a · b = b · a und (a · a) · (b · a) = a hinzufügen, es immer noch viele lange Beweise gibt - das heißt, viel von dem, was benötigt wird Zu verstehen.Was können wir verstehen?
Es gibt verschiedene Möglichkeiten, Dinge zu modellieren. Mehrere hundert Jahre lang waren die exakten Wissenschaften von der Idee geprägt, mathematische Gleichungen zu finden, die gelöst werden konnten, um zu zeigen, wie sich das System verhalten würde. Aber seit dem Aufkommen meines Buches hat es eine aktive Verschiebung hin zur Erstellung von Programmen gegeben, die Sie ausführen können, um zu sehen, wie sich die Systeme verhalten werden.Manchmal werden solche Programme für eine bestimmte Aufgabe geschrieben; manchmal werden sie lange gesucht. Und in unserer Zeit wird mindestens eine Klasse solcher Programme durch maschinelles Lernen durch die Rückwärtsbewegungsmethode aus bekannten Beispielen des Systemverhaltens abgeleitet.Und wie einfach ist es, mit diesen verschiedenen Modellierungsarten zu „verstehen, was passiert“? Die „exakte Lösung“ mathematischer Gleichungen zu finden, ist ein großes Plus - dann kann das Verhalten des Systems durch eine exakte mathematische Formel beschrieben werden. Aber selbst wenn dies nicht der Fall ist, ist es oft möglich, einige mathematische Aussagen so aufzuschreiben, dass sie mit anderen Systemen und Verhaltensweisen in Beziehung stehen.Wie ich oben geschrieben habe, kann mit einem Programm - wie einem zellularen Automaten - alles anders sein. Sehr oft kommt es vor, dass wir sofort auf rechnerische Irreduzibilität stoßen, was unsere Fähigkeit einschränkt, einen kurzen Weg zu gehen und zu „erklären“, was passiert.Was ist mit maschinellem Lernen und neuronalen Netzen? In gewissem Sinne ist das Training neuronaler Netze wie eine kurze Zusammenfassung der in den Naturwissenschaften stattfindenden induktiven Suche. Wir versuchen, anhand von Beispielen ein Modell des Systemverhaltens abzuleiten. Aber wird es dann möglich sein, das Modell zu verstehen?Und wieder gibt es Probleme mit der rechnerischen Irreduzibilität. Aber lassen Sie uns einen Fall diskutieren, in dem wir uns vorstellen können, wie die Situation aussehen würde, in der wir verstehen können, was passiert.Anstatt ein neuronales Netzwerk zur Simulation des Systemverhaltens zu verwenden, wollen wir ein neuronales Netzwerk erstellen, das einige Aspekte der Welt klassifiziert: Zum Beispiel Bilder aufnehmen und sie nach ihrem Inhalt verteilen („Boot“, „Giraffe“ usw.). Wenn wir das neuronale Netzwerk trainieren, lernt es, die richtige Ausgabe zu erzeugen. Sie können sich diesen Prozess jedoch möglicherweise als eine interne Konstruktion einer Folge von Unterschieden vorstellen (so etwas wie ein Spiel mit " zwanzig Fragen "), die letztendlich die richtige Schlussfolgerung bestimmt.Aber was sind diese Unterschiede? Manchmal können wir sie erkennen. Zum Beispiel: "Ist auf dem Bild viel Blau?" Aber meistens sind dies einige Eigenschaften der Welt, die die Menschen nicht bemerken. Vielleicht gibt es eine alternative Geschichte der Naturwissenschaften, in der sich einige von ihnen als solche erweisen würden. Sie sind jedoch nicht Teil des aktuellen Kanons der Wahrnehmung oder Analyse.Wenn wir sie hinzufügen wollten, würden wir vielleicht Namen für sie finden. Diese Situation ähnelt jedoch der Situation mit logischen Beweisen. Das automatische System hat einige Dinge erstellt, die es als Meilensteine verwendet, um das Ergebnis zu generieren. Aber wir erkennen diese Meilensteine nicht, sie bedeuten uns nichts.Wenn wir wieder feststellen würden, dass bestimmte spezifische Unterschiede häufig in neuronalen Netzen zu finden sind, könnten wir entscheiden, dass sie es verdienen, für uns selbst untersucht zu werden, und sie dem Standardkanon zur Beschreibung der Welt hinzufügen.Können wir eine kleine Anzahl solcher Unterschiede erwarten, um etwas Sinnvolles zu schaffen? Dies scheint die Frage zu sein, ob eine kleine Anzahl von Theoremen uns helfen wird, so etwas wie einen logischen Beweis zu verstehen.Ich denke, die Antwort ist nicht klar. Wenn Sie beispielsweise eine große Anzahl wissenschaftlicher Arbeiten in Mathematik studieren, können Sie Fragen zur Häufigkeit der Verwendung verschiedener Theoreme stellen. Es stellt sich heraus, dass die Häufigkeit der Sätze fast perfekt dem Zipfschen Gesetz entspricht (und an erster Stelle wird es einen zentralen Grenzwertsatz geben ,impliziter Funktionssatz und Tonelli-Fubini-Satz ). Das gleiche passiert wahrscheinlich mit Unterschieden, die „wissenswert“ sind, oder mit neuen Theoremen, die „wissenswert“ sind.Die Kenntnis mehrerer Theoreme gibt uns die Möglichkeit, weit genug voranzukommen, aber es wird immer einen unendlichen exponentiellen Schwanz geben, und wir werden nicht bis zum Ende kommen.Zukunft des Wissens
Wenn Sie Mathematik, Naturwissenschaften oder Technik studieren, sehen Sie ähnliche grundlegende Wege der qualitativen Entwicklung, die darin bestehen, eine Reihe immer größerer Abstraktionen aufzubauen. Es wäre schön, diesen Prozess zu quantifizieren. Vielleicht ist es möglich zu berechnen, wie bestimmte Begriffe oder Beschreibungen, die oft gleichzeitig gefunden werden, in höheren Abstraktionsebenen enthalten sind, auf denen wiederum neue Begriffe oder Beschreibungen in Verbindung mit ihnen erscheinen.Es kann möglich sein, ein idealisiertes Modell dieses Prozesses unter Verwendung eines formalen Berechnungsmodells wie Turing-Maschinen zu erstellen. Stellen Sie sich vor, auf der untersten Ebene gibt es eine grundlegende Turing-Maschine ohne Abstraktionen. Stellen Sie sich nun vor, wir wählen Programme für diese Turing-Maschine nach einem bestimmten Zufallsprozess aus. Anschließend führen wir diese Programme aus und analysieren sie, um festzustellen, welches Modell der "höheren" Berechnungsebene das gemeinsame Verhalten dieser Programme erfolgreich reproduzieren kann, ohne jeden Schritt in jedem dieser Programme ausführen zu müssen.Es könnte entschieden werden, dass eine rechnerische Irreduzibilität dazu führen würde, dass die Erstellung dieses übergeordneten Berechnungsmodells unweigerlich komplizierter wäre. Der entscheidende Punkt ist jedoch, dass wir nur versuchen, das gemeinsame Verhalten von Programmen zu reproduzieren, und nicht ihr separates Verhalten.Aber was passiert, wenn sich dieser Prozess immer wieder wiederholt, die idealisierte Geistesgeschichte des Menschen reproduziert und einen Turm von Abstraktionen schafft, der immer höher wird?Vermutlich können wir hier eine Analogie zu kritischen Phänomenen in der Physik und der Renormierungsgruppenmethode ziehen . Wenn ja, können wir uns vorstellen, dass wir die Flugbahn im Raum von Plattformen zur Darstellung von Konzepten bestimmen können. Was wird diese Flugbahn tun?Vielleicht hat es einen festen Wert, wenn es zu irgendeinem Zeitpunkt in der Geschichte ungefähr die gleiche Menge an lohnendem Studium von Konzepten gibt - neue Konzepte öffnen sich langsam und alte werden absorbiert.Was bedeutet das für Mathe? Zum Beispiel wird jede empirisch entdeckte „zufällige mathematische Tatsache“ bei Erreichen einer bestimmten Abstraktionsebene berücksichtigt. Es gibt kein offensichtliches Verständnis dafür, wie dieser Prozess funktionieren wird. In der Tat gibt es auf jeder Abstraktionsebene immer neue empirische Fakten, zu denen man "springen" muss. Es kann auch vorkommen, dass sich das "Erhöhen des Abstraktionsniveaus" langsamer als für diese "Sprünge" erforderlich bewegt.Zukunft des Verstehens
Was bedeutet das alles für das zukünftige Verständnis?In der Vergangenheit hatten Menschen, als sie die Natur studierten, eine kleine Anzahl von Gründen, sie zu verstehen. Manchmal verkörperten sie bestimmte Aspekte davon in Form von Geistern oder Gottheiten. Aber sie akzeptierten es so wie es war und dachten nicht über die Möglichkeit nach, alle Details der Ursachen der Prozesse zu verstehen.Mit dem Aufkommen der modernen Wissenschaft - und insbesondere wenn immer mehr unseres Lebens in künstlichen Umgebungen verbracht wird, die von den von uns entwickelten Technologien dominiert werden - haben sich diese Erwartungen geändert. Und wenn wir die von AI durchgeführten Berechnungen studieren, mögen wir es nicht, dass wir sie möglicherweise nicht verstehen.Es wird jedoch immer einen Wettbewerb geben zwischen dem, was die Systeme unserer Welt tun, und dem, was unser Gehirn aus ihrem Verhalten berechnen kann. Wenn wir uns entscheiden, nur mit Systemen zu interagieren, deren Rechenleistung viel einfacher als das Gehirn ist, können wir erwarten, dass wir systematisch verstehen können, was sie tun.Wenn wir jedoch alle im Universum verfügbaren Rechenfunktionen nutzen möchten, erreichen die Systeme, mit denen wir interagieren, zwangsläufig die Verarbeitungsleistung unseres Gehirns. Und dies bedeutet, dass wir nach dem Prinzip der rechnerischen Irreduzibilität die Funktionsweise dieser Systeme niemals systematisch „überholen“ oder „verstehen“ können.Aber wie können wir sie dann verwenden? Nun, genau wie der Mensch immer die Systeme der Natur benutzt hat. Natürlich kennen wir nicht alle Details ihrer Arbeit oder Fähigkeiten. Aber auf einer bestimmten Abstraktionsebene wissen wir genug, um zu verstehen, wie wir unsere Ziele mit ihrer Hilfe erreichen können.Was ist mit Bereichen wie Mathematik? In der Mathematik sind wir es gewohnt, unser Wissen so aufzubauen, dass wir jeden Schritt verstehen können. Experimentelle Mathematik sowie Merkmale wie der automatische Beweis von Theoremen machen jedoch die Existenz von Bereichen deutlich, in denen uns eine solche Methode nicht zur Verfügung stehen wird.Nennen wir sie "Mathe"? Ich denke sie sollten. Diese Tradition unterscheidet sich jedoch von der, die wir im letzten Jahrtausend gewohnt sind. Wir können dort immer noch Abstraktionen erstellen und neue Verständnisebenen aufbauen.Aber irgendwo in seiner Basis wird es viele verschiedene Versionen der rechnerischen Irreduzibilität geben, die wir niemals auf das Gebiet des menschlichen Verstehens übertragen können. Dies ist ungefähr das, was beim Beweis meines kleinen Axioms der Logik passiert. Dies ist ein frühes Beispiel dafür, was meiner Meinung nach in Zukunft einer der Hauptaspekte der Mathematik sein wird - und vieles mehr.