Aus einem Blog von Scott Joel Aronson, Spezialist für Informatik und Systeme, Dozent am Institut für Informatik der University of Texas in AustinSie lesen diese Geschichten - in der Financial Times, Technology Review, CNET, Facebook, Reddit, Twitter, [
auf Habr / ca. transl.] oder woanders - dass eine Gruppe von Forschern bei Google mit ihrem supraleitenden 53-Qubit-Gerät die Überlegenheit des Quantencomputers erreicht hat. Sie sind leicht zu finden, aber ich werde keine Links zu ihnen geben - einfach weil sie noch nicht existieren sollten.
Die Welt weiß, dass Google wirklich eine große Ankündigung von Quantum Excellence vorbereitet, die gleichzeitig mit der Veröffentlichung von Forschungsarbeiten in einer der angesehenen wissenschaftlichen Zeitschriften erscheinen sollte. Und dies wird wahrscheinlich innerhalb eines Monats geschehen.
In der Zwischenzeit hat die NASA, die an dieser Entwicklung beteiligt war, versehentlich eine alte Version von Google auf einer öffentlichen Website veröffentlicht. Sie verbrachte eine kurze Zeit dort, aber genug, um zur Financial Times, meinem Posteingang und Millionen anderer Orte zu gelangen. Argumente über diese Arbeit, die keine Fakten enthalten, sind vorhersehbar überall verbreitet.
Anscheinend wurde unserer Welt die Möglichkeit genommen, einen neuen Moment des "Eintritts des Menschen in den Weltraum" klar anzukündigen, in dem die
starke These von Church-Turing auf einer Pressekonferenz experimentell widerlegt wird. Es wird eher wie die Flucht der Gebrüder Wright sein, fragmentarische Gerüchte, die in der Zeit von 1903 bis 1908 aufgetaucht sind und in denen Wilbur und Orville schließlich Demonstrationsflügen zugestimmt haben (nur in unserem Fall wird die Erklärung des Problems glücklicherweise dahin gehen, wohin wie wenig Zeit!)
Ich bin seit ein paar Monaten auf dem neuesten Stand. Es war äußerst schwierig für mich, nicht in meinem Blog darüber zu schreiben. Ich habe versprochen zu schweigen, aber ich konnte dem Wunsch nicht widerstehen, hier und da andere Hinweise zu hinterlassen - zum Beispiel habe ich während meiner Rede bei der letzten
Veranstaltung , die
Paul Bernays gewidmet war , den Verlauf meiner Vorlesungen speziell so gestaltet, dass sie an diesen Punkt gelangen.
Dieser Eintrag ist die offizielle Ankündigung, die diese Fakten bestätigt. Und wenn für uns bereits ein Blitz sichtbar ist, gehört das Recht, den Donner auszusprechen, einer Gruppe von Forschern von Google sowie Zeit und Ort dafür.
Stattdessen habe ich mich entschlossen, diese Frage zu klären, die im Internet verbreiteten Fehlinformationen in meiner Rolle als Blogger und „sozialer Intellektueller“ zu beseitigen und Ihnen „eine hervorragende Reihe von Fragen und Antworten zur Quantenüberlegenheit von Scott“ vorzustellen. Nur für den Fall, dass Sie sich plötzlich für Quantenüberlegenheit interessieren oder wissen möchten, was passieren würde, wenn eine Suchmaschinenfirma von Mountain View oder anderswo hypothetisch die Erreichung der
Quantenüberlegenheit ankündigt.
Nun, ziehen wir die Katze nicht am Schwanz:
Frage 1: Was ist Quantencomputer-Exzellenz?Dieser Begriff wird oft einfach als Quantenüberlegenheit (KP) abgekürzt. Es bezeichnet die Verwendung eines Quantencomputers (QC) zur Lösung einer bestimmten genau definierten Reihe von Problemen, deren Lösung unter Verwendung der heute bekannten Algorithmen auf den heutigen klassischen Computern um Größenordnungen länger dauern wird - und zwar nicht nur so, sondern aufgrund der asymptotischen Quantenkomplexität. Der Schwerpunkt liegt hier darauf, 100% sicher zu sein, dass die Aufgabe in der Qualitätskontrolle gelöst wird, und sie kann wirklich nicht mit Hilfe klassischer Computer angegangen werden. Idealerweise sollte die Aufgabe so sein, dass sie bereits in naher Zukunft gelöst werden kann (mithilfe von lauten, nicht universellen QCs, die bereits vorhanden sind oder bald erscheinen werden). Und wenn diese Aufgabe noch nützlich ist, desto besser - aber das ist nicht notwendig. Das Flugzeug der Wright Brothers oder der
Chicago Woodpile waren an sich nicht nützlich.
F2: Wenn Googles Forscher HF wirklich erreicht haben, bedeutet dies, dass "jeder Code gehackt werden kann", wie der Präsidentschaftskandidat der US-Demokratischen Partei, Andrew Young, kürzlich getwittert hat?Nicht wahr (obwohl Young als Kandidat hübsch zu mir ist).
Es gibt zwei Probleme. Erstens bestehen die Geräte, die Google, IBM und andere heute erstellen, aus 50 bis 100 Qubits und verfügen nicht über ein Fehlerkorrektursystem. Um
den Shore-Algorithmus zum Knacken der RSA-Verschlüsselung auszuführen, sind mehrere tausend logische Qubits erforderlich. Und mit den heute bekannten Fehlerkorrekturmethoden kann dies leicht Millionen von physischen Qubits erfordern, und die Qualität ist besser als die vorhandenen. Ich glaube nicht, dass jemand dem nahe gekommen ist, und wir wissen nicht, wie lange es dauern wird.
Zweitens können skalierbare QCs mit Fehlerkorrektur auch in einer hypothetischen Zukunft, wie es uns heute erscheint, einige Codes knacken, aber nicht alle. Zufälligerweise enthalten die öffentlichen Schlüssel, die sie knacken können, die meisten Schlüssel, die wir heute für die Internetsicherheit verwenden: RSA, das Diffie-Hellman-Protokoll, elliptische Kurven usw. Die Verschlüsselung mit privaten Schlüsseln hat nur minimale Auswirkungen. Und es gibt auch Kandidaten für Public-Key-Systeme (zum Beispiel basierend auf Gittern), deren Hacking-Methode seit 20 Jahren bei QC-Versuchen niemandem bekannt ist. Darüber hinaus wird bereits versucht, auf solche Systeme umzusteigen. Details sind in meinem
Brief an Rebecca Goldstein .
F3: Welche Berechnungen, die als klassisch komplex angesehen werden, plant Google durchzuführen oder hat sie bereits durchgeführt?Ich kann sagen, obwohl es mir peinlich ist. Die Berechnungen sind wie folgt: Der "Tester" erzeugt eine zufällige Quantenschaltung C (eine zufällige Folge von Gates von 1 Qubit und dem zweiten Qubit, das ihm am nächsten liegt, Tiefe etwa 20, auf einem zweidimensionalen Gitter von 50-60 Qubits). Dann sendet der Tester C an den Quantencomputer und weist ihn an, die Schaltung auf den Anfangszustand von all-0 anzuwenden, das Ergebnis mit der Basis {0,1} zu messen, die beobachtete Folge von n Bits zu senden und dies mehrere tausend oder Millionen Mal zu wiederholen. Schließlich wendet der klassische Tester anhand seiner Kenntnisse über C einen statistischen Test an, um zu überprüfen, ob die Ausgabe bestätigt, dass die Qualitätskontrolle die Berechnungen durchgeführt hat.
Das heißt, es ist keine Aufgabe wie Factoring, eine richtige Antwort zu haben. Schaltung C erzeugt eine Wahrscheinlichkeitsverteilung, nennen wir sie D
C , über Zeichenfolgen von n Bits, und die Aufgabe besteht darin, Abtastwerte aus dieser Verteilung zu erzeugen. Tatsächlich sprechen 2
n Zeilen zur Unterstützung von DC - und es wird so viele davon geben, dass wir niemals die gleiche Ausgabe sehen werden, wenn die Qualitätskontrolle so funktioniert, wie sie sollte. Wichtig ist, dass die Verteilung von DC nicht gleichmäßig ist. Einige Leitungen erfahren eine konstruktive Interferenz der Amplituden, und ihre Wahrscheinlichkeiten sind größer, während andere unter destruktiven Interferenzen leiden und ihre Wahrscheinlichkeiten geringer sind. Und obwohl wir nur wenige Proben sehen werden, deren Anzahl im Vergleich zu 2
n winzig sein wird, können wir überprüfen, ob sie zu den Reihen tendieren, was wir für wahrscheinlicher halten, und dies wird letztendlich unser Vertrauen erhöhen, dass etwas klassisch Unerreichbares passiert .
Einfach ausgedrückt, KK wird einfach aufgefordert, eine zufällige (aber bekannte) Abfolge von Operationen auszuführen - nicht weil wir ein bestimmtes Ergebnis benötigen, sondern weil wir versuchen zu beweisen, dass es einem klassischen Computer in einer klar definierten Aufgabe voraus sein kann.
F4: Aber wenn KK nur existiert, um zufälligen Müll auszugeben, dessen einzige Bedeutung darin besteht, dass es schwierig ist, auf einem klassischen Computer zu simulieren, wen interessiert das dann? Ist das nicht ein Dosen-Sandwich mit nichts?Nein. Wie ich bereits schrieb, ist dies nicht ein Sandwich mit allem auf einmal, sondern definitiv ein Sandwich mit etwas!
Respektieren Sie die Unermesslichkeit des diskutierten Themas und die schrecklich komplexen technischen Errungenschaften, die für seine Umsetzung erforderlich sind. Vor dem Einsetzen des CP haben Skeptiker möglicherweise gleichzeitig Spaß daran, dass nach all den Milliardenausgaben in mehr als 20 Jahren noch nie eine einzige Qualitätskontrolle verwendet wurde, um eine Aufgabe zu lösen, die schneller erledigt worden wäre als Ihr Laptop, oder zumindest das Problem nicht gelöst werden konnte auf eine Weise, die von der Quantennatur dieses Computers abhängt. Aber in der Welt des kommenden KP ist das schon falsch. Eine Überlagerung von 2
50 oder 2
60 komplexen Zahlen wurde rechnerisch gemeistert, wobei Zeit und Ressourcen verwendet wurden, die im Vergleich zu 2
50 oder 2
60 winzig waren.
Ich erinnere mich ständig an das Flugzeug der Gebrüder Wright, weil mich der Abgrund zwischen dem, worüber wir sprechen, und der Vernachlässigung dieses Themas von allen Seiten im Internet beeindruckt. Dies ähnelt der Reaktion einer Person, die fest davon überzeugt war, dass es unmöglich ist, eine nützliche Reise durch die Luft zu unternehmen, und dann ein einfaches hölzernes Propellerflugzeug in der Luft schweben sah - dieses Spektakel würde seine Ansichten nicht widerlegen, aber auch nicht unterstützen.
Habe ich
mir all die Jahre wirklich
Sorgen gemacht, dass der ständige Hype um die viel weniger bedeutenden Meilensteine, die der CC erreicht hat, die Geduld der Menschen erschöpft und es ihnen egal ist, wenn etwas wirklich Wertvolles passiert?
F5: Vor vielen Jahren haben Sie die Massen beschämt, weil sie D-Wave und seine Aussagen über die enorme Quantenbeschleunigung bei der Lösung von Optimierungsproblemen durch Quantenglühen überbewertet haben. Jetzt schämen Sie sich für die Massen, dass sie von der Kommunistischen Partei nicht ausreichend begeistert sind. Warum entscheidest du dich nicht?Denn mein Ziel ist es nicht, das "Maß an Begeisterung" in eine bestimmte Richtung zu lenken, sondern sicherzustellen, dass es richtig ist! Können Sie im Rückblick nicht sagen, dass ich in Bezug auf die D-Wave im Allgemeinen Recht hatte, auch wenn mich meine Kritik an diesem Thema in einigen Kreisen unbeliebt machte? In Bezug auf den KP versuche ich auch, Recht zu haben.
F6: Wenn die Berechnungen in Bezug auf KP nur Stichproben aus der Wahrscheinlichkeitsverteilung berücksichtigen, wie kann ich überprüfen, ob die Berechnungen korrekt sind?Gut, dass du gefragt hast! Dies ist eine Frage der Theorie, die wir und andere Wissenschaftler im letzten Jahrzehnt entwickelt haben. Ich habe es bereits in B3 kurz erklärt: Die Berechnungen können statistisch anhand der von der Qualitätskontrolle zurückgegebenen Proben überprüft werden und stellen sicher, dass sie es vorziehen, zu den „Peaks“ der Wahrscheinlichkeitsverteilung DC hinzuzufügen
. Eine der bequemen Möglichkeiten, dies zu tun, ist das, was Google als "lineare Kreuzentropieprüfung" bezeichnet: Dies ist die Summe der Pr [C-Ausgabe s
i ] für alle Proben s
1 , .., s
k , die die Qualitätskontrolle erzeugt, und die erfolgreiche Überprüfung, wenn dieser Betrag herauskommt jenseits einer bestimmten Grenze - zum Beispiel bk / 2
n für eine Konstante 1 <b <2.
Um diesen Test durchzuführen, müssen natürlich die Wahrscheinlichkeiten Pr [C output s
i ] auf einem klassischen Computer berechnet werden - und der einzige Weg, dies zu tun, besteht darin, sich 2
n Zeit zu nehmen. Gibt es ein Problem damit? Nein, wenn n = 50 ist und Sie Google sind und Zahlen wie 2
50 verarbeiten können (obwohl Sie 2
1000 nicht bewältigen können, eine Zahl, die
googol - ha, ha überschreitet). Wenn Sie einen Monat lang irgendwo einen Cluster klassischer Kernel starten, können Sie schließlich den korrekten Exit Ihrer Qualitätskontrolle bestätigen, die in wenigen Sekunden ausgegeben wurde - und gleichzeitig arbeitet die Qualitätskontrolle um viele Größenordnungen schneller. Dies bedeutet jedoch auch, dass auf Stichproben basierende CP-Experimente für die 50-Qubit-Geräte entwickelt wurden, die sie heute erstellen. Und selbst mit hundert Qubits könnten wir die Ergebnisse der Qualitätskontrolle nicht bestätigen, selbst wenn wir die gesamte Rechenleistung des Planeten nutzen würden.
Ich betone, dass dieses Problem typisch für Experimente mit Proben ist, die denen ähneln, die wir jetzt durchführen. Wenn der Shore-Algorithmus eine Anzahl von 2000 Stellen faktorisiert, würden wir dies leicht überprüfen, indem wir einfach die resultierenden Faktoren multiplizieren und überprüfen, ob sie zu Primzahlen gehören. Wenn CC zur Simulation eines komplexen Biomoleküls verwendet würde, könnten wir dessen Funktion in einem Experiment testen.
F7: Warten Sie eine Minute. Wenn klassische Computer die Ergebnisse eines KP-Experiments nur im Simulationsmodus des Experiments überprüfen können (wenn auch langsam), wie kann dies dann "Quantenüberlegenheit" sein?Komm schon. Mit einem Chip von 53 Qubits ist es ziemlich logisch, eine millionenfache Beschleunigung in dem Modus zu erwarten, in dem Sie das Ergebnis der Arbeit immer noch direkt überprüfen können, und auch zu sehen, dass die Beschleunigung mit zunehmender Anzahl von Qubits exponentiell zunimmt - genau wie die asymptotische Analyse vorausgesagt hat.
F8: Gibt es einen mathematischen Beweis dafür, dass es keinen schnellen klassischen Algorithmus gibt, der das KP-Experiment mit Stichproben überholen würde?Nein heute. Dies ist jedoch nicht die Schuld der KP-Forscher! Experten der theoretischen Informatik können nicht einmal die einfachsten Hypothesen wie P ≠ NP oder P ≠ PSPACE beweisen, daher sollten Sie nicht hoffen, dass das Vorhandensein einer schnellen klassischen Simulation eindeutig ausgeschlossen werden kann. Wir können nur auf bedingte Komplexität hoffen. Und wir haben
einige dieser Ergebnisse wirklich bewiesen. Das größte theoretische Problem in diesem Bereich ist der Nachweis der besten Ergebnisse der bedingten Komplexität.
F9: Hat der Sampling-Frame selbst nützliche Verwendungszwecke?Wenn man zum ersten Mal über dieses Thema nachdachte, glaubten die Leute normalerweise, dass die offensichtliche Antwort auf diese Frage „Nein“ war (und ich war einer von ihnen). In letzter Zeit hat sich die Situation jedoch geändert - zum Beispiel dank meines Protokolls der bestätigten Zufälligkeit, das zeigt, wie ein Experiment mit einem CP mit einer Stichprobe sehr schnell in einen Bitgenerator umgewandelt werden kann, dessen Zufälligkeit einem skeptischen Beobachter von Drittanbietern (unter einigen rechnerischen Annahmen) nachgewiesen werden kann. Dies kann möglicherweise auf die Erstellung von
PoS-Kryptowährungen und anderen kryptografischen Protokollen angewendet werden. Ich hoffe, dass in naher Zukunft weitere solche Anwendungen entdeckt werden.
F10: Wenn KP-Experimente nur zufällige Bits erzeugen, ist das interessant? Ist es nicht eine triviale Aufgabe, Qubits durch einfaches Messen in zufällige Bits umzuwandeln?Die Quintessenz ist, dass das Experiment mit dem KP keine einheitlichen Zufallsbits erzeugt. Er trifft eine Auswahl aus einer komplexen korrelierenden Wahrscheinlichkeitsverteilung über 50-Bit- oder 60-Bit-Zeilen. In meinem
bestätigten Zufälligkeitsprotokoll spielen Abweichungen von der Homogenität eine zentrale Rolle, wie der CP einen klassischen Skeptiker davon überzeugen kann, dass Bits wirklich zufällig sind und kein geheimes System haben (wie ein Pseudozufallszahlengenerator).
F11: Aber haben jahrzehntelange quantenmechanische Experimente - zum Beispiel solche, die gegen Bellsche Ungleichungen verstoßen - KP noch nicht demonstriert?Dies ist nur eine Verwirrung in Bezug auf. Diese Experimente zeigten andere Arten von "Quantenüberlegenheit". Im Fall einer Verletzung der Bellschen Ungleichungen war es beispielsweise „Überlegenheit der Quantenkorrelation“. Es zeigte keine rechnerische Überlegenheit, dh etwas, das auf einem klassischen Computer nicht simuliert werden kann (trotz der Tatsache, dass die klassische Simulation keine Einschränkungen hinsichtlich der räumlichen Lokalität oder dergleichen hätte). Heutzutage meinen die Leute normalerweise die Überlegenheit des Quantencomputers mit KP.
F12: Nun, aber es gibt unzählige Beispiele für Materialien und chemische Reaktionen, die klassisch schwer zu simulieren sind, sowie spezielle Quantensimulatoren (zum Beispiel die Lukin-Gruppe aus Harvard). Warum werden sie nicht als Beispiele für KP angesehen?Nach einigen Definitionen können sie als Beispiele für KP angesehen werden! Der Hauptunterschied zwischen der Arbeit von Google-Forschern besteht darin, dass ihr Gerät vollständig programmierbar ist - es kann mit dem nächsten Nachbarn in eine beliebige Folge von 2-Qubit-Gates programmiert werden, indem einfach die erforderlichen Signale von einem Quantencomputer gesendet werden.
Mit anderen Worten, KP-Skeptiker können nicht länger darüber grunzen, dass es Quantensysteme gibt, die sich nur schwer klassisch simulieren lassen, nur weil die Natur schwer zu simulieren ist und wir nicht willkürlich ändern können, in welcher zufälligen chemischen Verbindung wir uns befinden Daher können diese Systeme nicht als "Computer, die sich selbst simulieren" betrachtet werden. Nach jeder vernünftigen Definition sind die supraleitenden Geräte, die Google, IBM und andere Unternehmen heute bauen, echte Computer.
F13: Haben Sie das Konzept der Quantenüberlegenheit erfunden?Nein. Ich spielte eine Rolle in seiner Definition, weshalb Sabina Hossenfelder und andere mir eine
zu große Rolle in dieser Idee zuschrieben. Der Begriff "Quantenüberlegenheit" wurde 2012 von John Preskill geprägt, obwohl das Schlüsselkonzept in gewisser Weise auf den Beginn des Quantencomputers in den frühen 1980er Jahren zurückgeht. 1994 wurde die Verwendung des Shore-Algorithmus zum Faktorisieren großer Zahlen zu einem echten Experiment auf dem Gebiet der KP - obwohl dieses Problem heute zu schwer zu lösen ist.
Die Essenz der Idee, die, soweit ich weiß, stattdessen darin bestand, den CP anhand des Stichprobenproblems zu demonstrieren, wurde erstmals von Barbara Theral und David Divincenzo in einer visionären
Arbeit aus dem Jahr 2002 vorgeschlagen. "Moderne" Versuche, Experimente zu organisieren, begannen 2011, als Alex Arkhipov und ich unsere
Arbeit über BosonSampling veröffentlichten und Bremner, Yosa und Shepherd unsere
Arbeit über geschaltete Hamiltonianer veröffentlichten. Diese Arbeiten zeigten nicht nur, dass „einfache“, nicht universelle Quantensysteme scheinbar komplexe Probleme bei der Abtastung lösen können, sondern auch, dass ein effektiver klassischer Algorithmus für diese Probleme zum
Zusammenbruch der Polynomhierarchie führen wird . Arkhipov und ich haben auch die ersten Schritte unternommen, um zu beweisen, dass selbst ungefähre Versionen von Quantenabtastproblemen klassisch komplex sein können.
Soweit ich weiß, tauchte in der E-Mail-Korrespondenz, an der John im Dezember 2015 begann, die Idee der „zufälligen Abtastung von Schaltkreisen“ auf, dh die Erzeugung eines komplexen Abtastproblems durch Auswahl zufälliger 2-Qubit-Ventilsequenzen in einer supraleitenden Architektur Martinis, Hartmut Niven, Sergio Boixo, Ashley Montanaro, Michael Bremner, Richard Josa, Aram Harrow, Greg Cooperberg und andere. Die Korrespondenz wurde als „schwieriges 40-Qubit-Sampling-Problem“ bezeichnet, und mein Brief begann mit den Worten „Entschuldigung für Spam“. Ich habe einige der Vor- und Nachteile von drei Optionen zur Demonstration von KP mit Stichproben diskutiert: (1) zufällige Konturen, (2) geschaltete Hamiltonianer, (3) BosonSampling. Nachdem Cooperberg die erste Option verteidigt hatte, bildete sich unter den Teilnehmern schnell ein Konsens.dass die erste Option aus technischer Sicht wirklich die beste war - und dass wir uns etwas einfallen lassen können, wenn die vorhandene theoretische Analyse für (1) nicht ausreicht.Danach führte eine Gruppe von Google eine Vielzahl von Analysen von Stichproben zufälliger Konturen durch, sowohl theoretischer als auch numerischer Art, und Lijie Chen und Buland und meine Kollegen legten Beweise verschiedener Art für die klassische Komplexität des Problems vor.F14: Wenn KP erreicht wird, was bedeutet dies für Skeptiker?Ich würde nicht an ihrer Stelle sein wollen! Sie können sich zu einer Position bewegen, an der KP möglich ist (und wer hat gesagt, dass dies unmöglich ist? Sie sind es sicherlich nicht!), Und diese Quantenkorrektur von Fehlern war schon immer ein echtes Problem. Und viele von ihnen haben diese besondere Position wirklich unterstützt. Aber andere, einschließlich meines Freundes Gil Kalay, argumentierten hier in einem Blogbeitrag, dass KP aus fundamentalen Gründen nicht erreicht werden könne. Und ich werde sie nicht rauslassen.F15: Wie geht es weiter?Das Erreichen von KP bedeutet, dass die Google-Gruppe bereits über die erforderliche Ausrüstung verfügt, um mein Protokoll zum Generieren bestätigter Zufallsbits zu demonstrieren . Und dies ist wirklich eines der ersten Dinge, die wir vorhaben.Der nächste offensichtliche Meilenstein wird die Verwendung einer programmierbaren Qualitätskontrolle mit 50-100 Qubits für nützliche Quantensimulationen (z. B. Systeme mit kondensiertem Zustand) sein, die schneller sind als alle bekannten klassischen Methoden. Der zweite offensichtliche Meilenstein wird die Demonstration der Verwendung der Quantenfehlerkorrektur sein, damit das codierte Qubit länger lebt als die zugrunde liegenden physikalischen Qubits. Es besteht kein Zweifel, dass Google, IBM und andere Spieler um diese beiden Meilensteine kämpfen werden.Nach der Veröffentlichung des Artikels erinnerte mich Steve Girwin daran, dass die Gruppe aus Yale bereits erreicht hatteQuantenfehlerkorrektur, wenn auch in einem Bosonischen System und nicht in einem System supraleitender Qubits. Vielleicht ist der nächste Meilenstein besser wie folgt formuliert: Erreichen einer Überlegenheit der Quantenberechnung und einer nützlichen Quantenfehlerkorrektur in einem System.