
Experimente am Large Hadron Collider erzeugen jede Sekunde etwa eine Million Gigabyte Daten. Auch nach Reduzierung und Komprimierung sind die auf dem LHC in nur einer Stunde gemessenen Daten volumenmäßig mit den Daten vergleichbar, die Facebook für das ganze Jahr erhalten hat.
Glücklicherweise müssen Experten der Teilchenphysik diese Daten nicht manuell verarbeiten. Sie arbeiten mit einer Art künstlichem Intelligenzlernen zusammen, um eine unabhängige Datenanalyse mithilfe der Technologie des maschinellen Lernens durchzuführen.
„Im Vergleich zu herkömmlichen Computeralgorithmen, die wir für die Durchführung einer bestimmten Art von Analyse entwickeln, stellen wir den Algorithmus für maschinelles Lernen so ein, dass er entscheidet, welche Art von Analyse durchgeführt werden soll, was uns unzählige Arbeitsstunden für Entwicklung und Analyse erspart“, sagt er Der Physiker Alexander Radovich vom College of William and Mary arbeitet im Nova-Neutrino-Experiment.
Radovic und eine Gruppe von Forschern skizzierten in einer im August 2018 in Nature veröffentlichten Zusammenfassung den Umfang der aktuellen Anwendung und die Zukunftsaussichten von MO in der Teilchenphysik.
Big Data sichten
Um die große Datenmenge zu verarbeiten, die in modernen Experimenten erhalten wurde, beispielsweise an den LHC, verwenden die Forscher „Trigger“ - spezielle Geräte, die mit der Software zusammenarbeiten, um in Echtzeit zu entscheiden, welche Daten für die Analyse übrig bleiben und welche entfernt werden sollen .
Mithilfe eines
LHCb- Detektors in einem Experiment, das Aufschluss darüber geben kann, warum es im Universum so viel mehr Materie als Antimaterie gibt, treffen MO-Algorithmen mindestens 70% dieser Entscheidungen, sagt Mike Williams vom Massachusetts Institute of Technology, der für LHCb, einen der Autoren, arbeitet erwähnte Zusammenfassung. "MO spielt eine Rolle in fast allen Aspekten der Arbeit mit Daten in einem Experiment, von Auslösern bis zur Analyse der verbleibenden Daten", sagt er.
Maschinelles Lernen zeigt signifikante Fortschritte in der Analyse. Die riesigen ATLAS- und CMS-Detektoren am LHC, dank derer das Higgs-Partikel entdeckt wurde, verfügen über Millionen von Sensoren, deren Signale zusammengeführt werden müssen, um aussagekräftige Ergebnisse zu erzielen.
"Diese Signale bilden einen komplexen Datenraum", sagte Michael Kagan vom National Energy Accelerator Laboratory (SLAC) des US-Energieministeriums, einem ATLAS-Detektor, der zu dem Bericht beigetragen hat. "Wir müssen die Beziehung zwischen ihnen verstehen, um Schlussfolgerungen ziehen zu können - zum Beispiel, dass ein Elektron, ein Photon oder etwas anderes eine bestimmte Spur eines Teilchens in einem Detektor hinterlässt."
MO ist auch vorteilhaft für Experimente mit Neutrinos. NOva, das
Fermilab dient, untersucht, wie Neutrinos auf Reisen durch die Erde von einer Art zur anderen übertragen werden. Diese
Neutrinooszillationen können möglicherweise die Existenz neuer Arten von Neutrinos aufdecken, die sich nach einigen Theorien als Teilchen der Dunklen Materie herausstellen können. NOva-Detektoren suchen nach geladenen Teilchen, die auftreten, wenn Neutrinos mit dem Material im Detektor kollidieren, und MO-Algorithmen bestimmen sie.
Vom maschinellen Lernen zum tiefen Lernen
Die jüngsten Fortschritte auf dem Gebiet der MO werden oft als tiefes Lernen bezeichnet und versprechen, den Anwendungsbereich der MO in der Teilchenphysik weiter auszubauen. Allgemeinmediziner bedeuten normalerweise die Verwendung neuronaler Netze: Computeralgorithmen mit einer Architektur, die von einem dichten Netzwerk menschlicher Gehirnneuronen inspiriert ist.
Diese neuronalen Netze lernen unabhängig voneinander bestimmte Analyseaufgaben durch Training, wenn sie Testdaten, beispielsweise aus Simulationen, verarbeiten und Feedback zur Qualität ihrer Arbeit erhalten.
Bis vor kurzem war der Erfolg neuronaler Netze begrenzt, da sie sehr schwer zu trainieren waren, sagte Co-Autor Kazuhiro Terao, ein SLAC-Forscher, der im MicroBooNE-Neutrino-Experiment arbeitet, das Neutrino-Oszillationen im Rahmen des Fermilab-Kurzzeitprogramms untersucht. Das Experiment wird Teil eines zukünftigen
Deep Underground Neutrino-Experiments sein . "Diese Schwierigkeiten haben unsere Fähigkeit eingeschränkt, mit einfachen neuronalen Netzen ein paar Schichten tief zu arbeiten", sagt er. "Dank der Weiterentwicklung von Algorithmen und Computergeräten wissen wir jetzt viel mehr darüber, wie leistungsfähigere neuronale Netze mit Hunderten oder Tausenden von Schichten erstellt und trainiert werden können."
Viele Durchbrüche im Zivilschutz sind auf die kommerzielle Entwicklung von Technologieriesen und die Explosion von Daten zurückzuführen, die sie in den letzten zwei Jahrzehnten erstellt haben. „NOva verwendet beispielsweise ein neuronales Netzwerk ähnlich der GoogleNet-Architektur“, sagt Radovic. "Dies hat das Experiment in einem Ausmaß verbessert, das nur durch eine Erhöhung der Datenerfassung um 30% erreicht werden konnte."
Fruchtbarer Boden für Innovation
MoD-Algorithmen werden von Tag zu Tag komplexer und fein abgestimmt und eröffnen beispiellose Möglichkeiten zur Lösung von Problemen auf dem Gebiet der Teilchenphysik. Viele der neuen Aufgaben, für die sie angewendet werden können, beziehen sich auf Computer Vision, sagt Kagan. "Dies ähnelt der Gesichtserkennung, aber nur in der Teilchenphysik sind Bildeigenschaften abstrakter und komplexer als Ohren oder Nasen."
Die Daten einiger Experimente wie NOvA und MicroBooNE können recht einfach in reale Bilder umgewandelt werden, und AI kann sofort zur Bestimmung ihrer Merkmale verwendet werden. Andererseits müssen Bilder aus den Ergebnissen von Experimenten mit dem LHC zunächst auf der Grundlage eines komplizierten Datensatzes rekonstruiert werden, der von Millionen von Sensoren erhalten wurde.
„Aber auch wenn die Daten nicht wie Bilder aussehen, können wir Methoden aus der Bildverarbeitung anwenden, wenn wir die Daten korrekt verarbeiten“, sagt Radovic.
Einer der Bereiche, in denen dieser Ansatz sehr nützlich sein kann, ist die Analyse von Partikelstrahlen, die in großen Mengen auf dem LHC entstehen. Jets sind schmale Partikelstrahlen, deren Spuren äußerst schwer voneinander zu trennen sind. Computer Vision-Technologie kann helfen, diese Jets zu verstehen.
Eine weitere neue Anwendung von GO ist die Simulation von Daten zur Teilchenphysik, die beispielsweise vorhersagen, was bei Teilchenkollisionen auf dem LHC passieren wird, die mit realen Daten verglichen werden können. Diese Art von Simulationen läuft normalerweise langsam und erfordert unglaublich viel Rechenleistung. KI könnte solche Simulationen viel schneller durchführen, was letztendlich eine nützliche Ergänzung zu traditionellen Forschungsmethoden sein könnte.
„Noch vor wenigen Jahren hätte niemand gedacht, dass tiefe neuronale Netze darauf trainiert werden könnten, Daten basierend auf zufälligem Rauschen zu„ sehen ““, sagt Kagan. "Obwohl sich diese Arbeit noch in einem sehr frühen Stadium befindet, sieht sie bereits vielversprechend aus und wird wahrscheinlich in Zukunft zur Lösung von Datenproblemen beitragen."
Die Vorteile einer gesunden Skepsis
Trotz der offensichtlichen Durchbrüche stoßen MO-Enthusiasten häufig auf Skepsis ihrer Kollegen, insbesondere da MO-Algorithmen größtenteils wie „Black Boxes“ funktionieren und fast keine Informationen darüber liefern, wie sie zu einer bestimmten Schlussfolgerung gekommen sind.
"Skepsis ist sehr gesund", sagt William. "Wenn wir MO für Trigger verwenden, die einige Daten löschen, z. B. auf LHCb, müssen wir in diesem Problem äußerst vorsichtig sein und die Messlatte sehr hoch legen."
Um die Position von MOs in der Teilchenphysik zu stärken, ist es daher notwendig, ständig zu versuchen, das Verständnis der Funktionsweise der Algorithmen zu verbessern und wenn möglich Kreuzvergleiche mit realen Daten durchzuführen.
"Wir müssen ständig versuchen zu verstehen, was ein Computeralgorithmus tut, und seine Ergebnisse bewerten", sagt Terao. - Dies gilt für jeden Algorithmus, nicht nur für MO. Skepsis sollte daher den Fortschritt nicht behindern. "
Der rasche Fortschritt ermöglicht es einigen Forschern bereits, davon zu träumen, was in naher Zukunft möglich sein könnte. „Heute verwenden wir meistens MOs, um nach Funktionen in unseren Daten zu suchen, die uns bei der Beantwortung einiger Fragen helfen können“, sagt Terao. "Und in etwa zehn Jahren können die MO-Algorithmen möglicherweise unabhängig voneinander ihre eigenen Fragen stellen und verstehen, dass sie neue Physik entdeckt haben."