Googles neuester Quantencomputing-Chip, "Willow," hat die Aufmerksamkeit der globalen Tech-Community auf sich gezogen. Diese bahnbrechende Entwicklung zeigt nicht nur die neuesten Errungenschaften im Quantencomputing, sondern wirft auch kritische Diskussionen über die möglichen Auswirkungen auf die Blockchain-Sicherheit auf. Die Grundlage der Blockchain-Sicherheit liegt in komplexen kryptografischen Herausforderungen, und Fortschritte im Quantencomputing können eine Bedrohung für diese Grundlage darstellen. Dieser Artikel befasst sich mit den möglichen Auswirkungen von Googles "Willow"-Chip auf die Blockchain-Sicherheit.
Gemäß offiziellen Berichten [1] hat Google seinen neuesten Quantencomputer-Chip namens „Willow“ vorgestellt und zwei bedeutende Durchbrüche verkündet:
Lassen Sie uns diese Erfolge einmal genauer betrachten. Wir werden den ersten Durchbruch bei der Quantenfehlerkorrektur vorerst beiseitelegen und uns auf den zweiten konzentrieren: die Rechengeschwindigkeit. Wenn 'Willow' in fünf Minuten abschließen kann, was ein Supercomputer 1.025 Jahre brauchen würde, um zu erreichen, stellt es einen eindrucksvollen Vergleich zu traditionellen kryptografischen Herausforderungen dar.
Beispielsweise betrachten Sie die Zeit, die ein klassischer Computer benötigt, um einen RSA-2048-Verschlüsselungsschlüssel per Brute-Force zu knacken. Laut Schätzungen von John Preskill [2] würde ein Heimcomputer etwa 10¹⁶ Jahre benötigen, um RSA-2048 zu knacken.
Angesichts der enormen Fähigkeiten von „Willow“ scheint es trivial zu sein, Aufgaben, die einen Supercomputer 1.025 Jahre benötigen, in nur fünf Minuten zu bewältigen. Bedeutet dies, dass das kryptografische Problem der Integer-Faktorisierung, auf dem RSA basiert, nicht mehr sicher ist? Nach derselben Logik wurde das Problem des diskreten Logarithmus auf elliptischen Kurven, ein weiterer Eckpfeiler der Blockchain-Sicherheit, bereits gelöst? Diese Spekulationen deuten auf ein Szenario hin, in dem die Sicherheit der Blockchain in einem Augenblick zusammenbrechen könnte.
Aber ist das wirklich der Fall?
Lassen Sie uns tiefer in die tatsächlichen Auswirkungen dieser Entwicklungen auf Kryptographie und Blockchain-Technologie eintauchen. (Fortsetzung folgt…)
Quantencomputer haben das theoretische Potenzial, klassische kryptografische Herausforderungen zu knacken, wie das Problem der ganzen Zahl-Faktorisierung und das diskrete Logarithmus-Problem, die viele Verschlüsselungssysteme unterstützen. Aber welches Maß an Quantencomputer-Fähigkeiten ist tatsächlich erforderlich, um bestimmte kryptografische Herausforderungen zu knacken? Dies wollen wir anhand der folgenden Beispiele untersuchen:
Faktorisierung einer großen Zahl aus einem RSA-2048 öffentlichen Schlüssel.
Das Ableiten eines privaten Schlüssels aus einem öffentlichen Schlüssel auf elliptischen Kurven wie Secp256k1, Secp256r1 oder Ed25519.
Für herkömmliche Computer sind beide Aufgaben rechnerisch unmöglich. Basierend auf ihren jeweiligen Sicherheitsparametern ist die Elliptic Curve Cryptography (ECC) etwas schwerer zu brechen als RSA. Die Forschung von Martin et al. [3] legt jedoch nahe, dass die Situation für Quantencomputer umgekehrt ist: RSA ist etwas schwerer als ECC. Aus Gründen der Einfachheit behandeln wir beide Probleme als gleich schwierig und konzentrieren uns auf das zweite Problem.
Die Rolle von Secp256k1 und ähnlichen Kurven in der Sicherheit der Blockchain
Elliptische Kurven wie Secp256k1, Secp256r1 und Ed25519 werden in Blockchain-Systemen weit verbreitet eingesetzt. Das diskrete Logarithmusproblem (DLP) auf diesen Kurven bildet das Rückgrat der Blockchain-Sicherheit, einschließlich Systemen wie Bitcoin. Wenn dieses Problem gelöst wird, könnten Angreifer Transaktionen auf der Blockchain nach Belieben fälschen. Offensichtlich würde die Fähigkeit, DLP auf elliptischen Kurven zu lösen, direkt über das Überleben der Blockchain-Sicherheit entscheiden.
Quantum Computing Anforderungen für das Brechen von DLP
Laut Martin et al. [3] würde die Lösung des diskreten Logarithmusproblems auf einer elliptischen Kurve, die über einem Primordnungsfeld definiert ist (mit einer Ordnungsgröße von nnn Bits), Folgendes erfordern:
Beispiel: Brechen der NIST-Standardkurve P-256
Für die P-256 Kurve, die in vielen kryptographischen Systemen verwendet wird:
Auswirkungen auf die Sicherheit der Blockchain
Ein Quantencomputer mit nur 2.330 logischen Qubits und der Fähigkeit zur Ausführung von 1,26×10111,26 \times 10^{11}1,26×1011 Toffoli-Gates würde ausreichen, um Blockchain-Systeme zu kompromittieren. Diese Fähigkeit würde die Sicherheit von Bitcoin, Ethereum und nahezu allen anderen Blockchain-Netzwerken, die auf ECC zur kryptografischen Absicherung angewiesen sind, zerstören.
Obwohl diese Ressourcenanforderungen entmutigend sind, deuten die raschen Fortschritte in der Technologie des Quantencomputings darauf hin, dass die Realisierung solcher Fähigkeiten langfristig nicht unmöglich sein könnte. Die derzeitigen Schätzungen legen jedoch nahe, dass die Umsetzung solcher Quantensysteme noch 15–20 Jahre in der Zukunft liegt und der Blockchain-Branche somit ein entscheidendes Zeitfenster bietet, um quantensichere Kryptographie zu entwickeln und einzusetzen.
Die außergewöhnliche Rechenleistung von Quantencomputern, die bei weitem die von klassischen Computern übertrifft, liegt in ihrer Fähigkeit, QuantenüberlagerungundQuantenparallelismusdurchQuantenbits (Qubits). Im Gegensatz zur klassischen Berechnung, die auf linearen Prozessen beruht, ermöglicht die Quantenberechnung komplexe Berechnungen, indem sie gleichzeitig auf mehreren Zuständen arbeitet. Die einzigartigen Eigenschaften von Qubits bringen jedoch auch bedeutende Herausforderungen mit sich.
Qubits sind äußerst empfindlich gegenüber Umgebungsgeräuschen und externen Störungen, wodurch ihre Zustände instabil werden und ihre quantenmechanischen Eigenschaften verlieren können (ein Phänomen, das alsDekohärenzFehler können praktisch in jeder Phase eines Quantenrechenprozesses auftreten - während der Initialisierung, Zustandserhaltung, Quantengatteroperation oder Ergebnismessung. Solche Fehler können Quantenalgorithmen unwirksam machen oder falsche Ergebnisse liefern. Daher ist es wichtig, die Stabilität und Genauigkeit von Qubits sicherzustellen, um hochwertige Qubitsist eine der zentralen Herausforderungen in der Quantenberechnung.
Bewältigung der Herausforderung: Logische Qubits und Fehlerkorrektur
Eine der Schlüsselstrategien zur Überwindung der Qubit-Instabilität ist der Aufbau von logischen Qubits, die Fehlerquoten durch die Kombination mehrerer physischer Qubits mit Quantenfehlerkorrekturcodes reduzieren. Diese Codes, wie Oberflächencodes und kartesische Codes, ermöglichen die Erkennung und Korrektur von Fehlern und erhöhen so die Robustheit und Zuverlässigkeit von Quantensystemen.
Jedes logische Qubit erfordert in der Regel Dutzende bis Tausende von physischen Qubits, um es zu unterstützen. Obwohl logische Qubits die Fehlertoleranz von Quantencomputern erheblich verbessern, gehen sie mit erhöhten Anforderungen an physische Qubits und komplexen Fehlerkorrekturalgorithmen einher.
Eine kritische Herausforderung bei der Fehlerkorrektur in der Quantenphysik hat sich als ein Hauptengpass erwiesen. Forscher gingen ursprünglich davon aus, dass die Opferung zusätzlicher physischer Qubits die Genauigkeit der logischen Qubits verbessern würde. Die Realität hat jedoch das Gegenteil bewiesen. Aufgrund der inhärent hohen Fehlerquoten von physischen Qubits (im Bereich von 10⁻¹ bis 10⁻³) führten frühe Versuche der Fehlerkorrektur oft zu logischen Qubits mit noch höheren Fehlerquoten als die physischen Qubits selbst.
Dieses Paradoxon kann mit einem chaotischen Teamszenario verglichen werden: „Je mehr Personen beteiligt sind, desto mehr Chaos entsteht.“ Bei der Quantenfehlerkorrektur führte die schlechte Qualität der physischen Qubits häufig dazu, dass Fehlerkorrekturmechanismen mehr Fehler einführten, als sie beseitigten. Dieses Phänomen, das oft als „Überkorrektur ins Chaos“ beschrieben wird, unterstreicht die Bedeutung hochwertiger physischer Qubits als Grundlage für den Aufbau zuverlässiger logischer Qubits.
Ohne hochwertige logische Qubits bleibt praktische Quantencomputing außer Reichweite. Die Bewältigung dieser Herausforderung erfordert nicht nur Fortschritte in der Stabilität der physischen Qubits, sondern auch Durchbrüche in den Techniken zur Quantenfehlerkorrektur. Die Erreichung dieses Ziels ist entscheidend, um das volle Potenzial des Quantencomputings freizusetzen und seine derzeitigen Einschränkungen zu überwinden.
Mit einem soliden Verständnis der Herausforderungen im Zusammenhang mit der Quantencomputertechnologie können wir nun die Leistungen des Quantenchips „Willow“ von Google neu bewerten.
Einer der bahnbrechendsten Aspekte von "Willow" ist seine Fähigkeit, die langjährigen Hindernisse bei der Quantenfehlerkorrektur mithilfe von Oberflächen-Codes [4][5] zu überwinden. Durch Erhöhung der Anzahl von Qubits und Optimierung der Fehlerkorrekturtechniken hat "Willow" einen historischen Meilenstein erreicht: Die Fehlerkorrektur wurde von einem verlustbringenden Prozess zu einem Nettogewinn transformiert.
Oberflächenkode-Leistung
Zusätzlich hat der "Willow"-Chip die Berechnung des Random Circuit Sampling (RCS) Benchmark in weniger als fünf Minuten abgeschlossen. RCS ist eine weit verbreitete Methode zur Bewertung der Leistung von Quantencomputern.
Es ist jedoch wichtig zu beachten, dass der beeindruckende Leistungsunterschied zwischen dem Quantencomputer und einem klassischen Supercomputer in diesem Test teilweise auf den grundlegenden Unterschieden zwischen Quanten- und klassischer Berechnung beruht. Um dies besser zu verstehen, können wir eine unvollkommene Analogie verwenden: den Vergleich der „Geschwindigkeit eines Satelliten im Weltraum“ mit der „Geschwindigkeit eines Autos auf der Straße“.
Darüber hinaus sollte betont werden, dass RCS derzeit noch keine praktischen Anwendungsszenarien hat und hauptsächlich als Leistungsbewertungsinstrument dient.
Google Quantum Computing Roadmap
Das obige Diagramm veranschaulicht die sechs Stufen der Entwicklungs-Roadmap von Googles Quantencomputern und hebt den kritischen Weg von experimentellen Durchbrüchen zu praktischen Anwendungen im großen Maßstab hervor.
Mit der Sycamore-Prozessor, das Team demonstrierte Quantenberechnungen, die die klassische Berechnung überschritten. In nur 200 Sekunden erledigte der Prozessor eine Aufgabe, die einen herkömmlichen Supercomputer 10.000 Jahre dauern würde. Damit wurde die Grundlage für die Quantum Supremacy geschaffen. Die Ziele dieser Phase wurden mit einem Quantencomputer mit 54 physischen Qubits erreicht.
Das Weidenchipwurde verwendet, um den ersten Prototyp eines logischen Qubits zu demonstrieren und zu beweisen, dass die Quantenfehlerkorrektur die Fehlerquoten reduzieren kann. Dieser Durchbruch ebnete den Weg für den Bau von praktischen Quantencomputern im großen Maßstab und ermöglichte die Möglichkeit von nahzeitigen Anwendungen im Bereich der Intermediate-Scale-Quanten (NISQ). Die Ziele für diese Phase wurden ebenfalls erreicht, wobei der Quantencomputer 105 physikalische Qubits und eine logische Qubit-Fehlerquote von 10−310^{-3}10−3 erreichte.
Das Ziel besteht darin, langlebige logische Qubits mit einer Fehlerrate von weniger als eins in einer Million Operationen aufzubauen. Dies erfordert eine robustere Quantenfehlerkorrektur und eine skalierbare Hardwarearchitektur. Quantencomputer in diesem Stadium sollen über 103 physische Qubits verfügen, wobei die Fehlerraten des logischen Qubits auf 10^-6 reduziert werden.
Der Fokus richtet sich auf die Erreichung von logischen Quantengatteroperationen mit geringem Fehler, um sinnvolle Anwendungen zur Fehlerkorrektur in der Quantenberechnung zu ermöglichen. Es wird erwartet, dass Quantencomputer 10410^4104 physische Qubits erreichen und gleichzeitig eine logische Qubit-Fehlerrate von 10−610^{-6}10−6 aufrechterhalten.
Das System wird auf 100 logische Qubits erweitert und hochpräzise Gate-Operationen durchführen, um mehr als drei fehlertolerante Quantenanwendungen freizuschalten. Es wird erwartet, dass Quantencomputer über 10510^5105 physikalische Qubits verfügen, bei einer Fehlerquote von logischen Qubits von 10−610^{-6}10−6.
Das ultimative Ziel besteht darin, 1 Million Qubits zu kontrollieren und zu verbinden, um einen groß angelegten fehlertoleranten Quantencomputer zu schaffen. Dieses System soll in Bereichen wie Medizin und nachhaltigen Technologien breit einsetzbar sein, wobei über 10 Quantenanwendungen verschiedene Branchen transformieren. Quantencomputer in diesem Stadium werden 10610^6106 physikalische Qubits haben, wobei die Fehlerquoten für logische Qubits auf 10−1310^{-13}10−13 sinken.
Wie bereits besprochen, das Knacken üblicher kryptographischer Herausforderungen in der Blockchain, wie z.B. die elliptisches Kurven-Diskret-Logarithmus-Problem, erfordert etwa 2.330 hochwertige logische Qubits und einen Quantenschaltkreis mit 1,26×10^{11} Toffoli-Gates. Logische Qubits beruhen auf der Quantenfehlerkorrektur, wobei für jedes logische Qubit in der Regel mehrere physische Qubits zur Unterstützung erforderlich sind. Zum Beispiel verwendet der Willow-Chip eine Code-Entfernung von 7, wobei 72=49 physische Qubits pro logischem Qubit benötigt werden, insgesamt ungefähr 114.170 physische Qubits.
Diese Schätzung ist jedoch optimistisch. Mit zunehmender Skalierung und Tiefe der Quantenoperationen werden strengere Anforderungen an die Fehlerhäufigkeit des logischen Qubits entstehen. Derzeit liegt die Fehlerhäufigkeit des logischen Qubits von Willow bei etwa 10−310^{-3}10−3, weit entfernt von dem für die Lösung solcher Probleme erforderlichen Niveau. Laut Craig et al. [6] erfordert die Lösung des RSA-2048-Problems, das eine ähnliche Komplexität wie das Problem des elliptischen Kurven-Diskreten Logarithmus hat, eine Fehlerhäufigkeit des logischen Qubits von 10−1510^{-15}10−15 und einen Codeabstand von mindestens 27. Dies bedeutet, dass jedes logische Qubit 272=72927^2 = 729272=729 physikalische Qubits benötigen würde, insgesamt über 1.698.570 physikalische Qubits. Darüber hinaus liegt die erforderliche Fehlerhäufigkeit des logischen Qubits von 10−1510^{-15}10−15 nicht nur weit unter dem Wert von Willow von 10−310^{-3}10−3, sondern auch um zwei Größenordnungen niedriger als die erwartete Fehlerhäufigkeit des logischen Qubits für Quantencomputer in Googles Stage-6-Roadmap.
Basierend auf dem Entwicklungsplan von Google wird es erst möglich sein, das Problem des diskreten Logarithmus der elliptischen Kurve zu lösen, wenn die Quantencomputertechnologie die Stufe 6 erreicht. Um dieses Ziel zu erreichen, sind bedeutende Fortschritte bei der Qualität des logischen Qubits sowie bei der effizienten Verwaltung und Fehlerkorrektur von massiven Mengen an physischen Qubits erforderlich.
Unter der Annahme eines fünfjährigen Intervalls zwischen den Stufen 1 und 2 und eines gleichmäßigen Fortschritts wird geschätzt, dass es 15 bis 20 Jahre dauern wird, bis „Willow“ klassische kryptografische Herausforderungen überwindet. Selbst bei optimistischer Betrachtung würde es mindestens 10 Jahre dauern, um das erforderliche Niveau zu erreichen.
Sobald Quantencomputer ausreichende Rechenleistung erreichen, werden sie in der Lage sein, ihre asymmetrischen Vorteile auszunutzen, um die Kernsicherheitsmechanismen von Kryptowährungen schnell zu kompromittieren. Dazu gehört das Stehlen der privaten Schlüssel der Benutzer und die Übernahme der Kontrolle über ihre Vermögenswerte. In einem solchen Szenario würden bestehende Kryptowährungsnetzwerke einem systemischen Zusammenbruch gegenüberstehen, wodurch die Vermögenswerte der Benutzer ungeschützt wären.
Derzeit befindet sich jedoch Googles Willow-Quanten-Chip noch in den Anfangsstadien der Quantencomputing-Forschung und ist nicht in der Lage, kryptografische Herausforderungen wie die Faktorisierung großer ganzer Zahlen und diskrete Logarithmen von elliptischen Kurven zu lösen. Daher stellt er noch keine wesentliche Bedrohung für die Blockchain-Sicherheit dar. Die Entwicklung eines wirklich praktischen Quantencomputers steht vor zahlreichen technischen Herausforderungen, was diesen zu einem langen und mühsamen Weg macht.
Obwohl die Quantencomputer-Technologie noch nicht direkt verschlüsselte Vermögenswerte bedroht, kann ihre schnelle Entwicklung nicht ignoriert werden. Nach Prognosen auf der Grundlage aktueller technologischer Trends werden Quantencomputer voraussichtlich in den nächsten zehn Jahren mehrere wichtige technische Engpässe überwinden und sich allmählich dem kritischen Punkt nähern, an dem sie die traditionelle Kryptografie bedrohen könnten. In Erwartung dieser potenziellen Herausforderung muss die Blockchain-Community proaktiv planen und sich auf die technologischen Auswirkungen des Quantenzeitalters vorbereiten. Um die langfristige Sicherheit und Stabilität von Blockchain-Systemen zu gewährleisten, sind drei wesentliche Maßnahmen erforderlich:
Es ist entscheidend, die Forschung zu quantenresistenter Kryptographie voranzutreiben, wie zum Beispiel lattice-basierte Algorithmen, und ihre standardisierte Anwendung weltweit zu fördern. Dies hat höchste Priorität bei der Bewältigung von quantenbedingten Bedrohungen und ist für die zukünftige Sicherheit der Blockchain-Technologie von entscheidender Bedeutung.
Die Bemühungen sollten sich darauf konzentrieren, eine robuste quantenresistente kryptografische Infrastruktur aufzubauen, um eine starke technische Grundlage für die langfristige Sicherheit von Blockchain-Netzwerken zu schaffen. Dadurch wird sichergestellt, dass Systeme effektiv auf potenzielle quantenbedingte Bedrohungen reagieren und stabile Betriebsabläufe aufrechterhalten werden können.
Die Blockchain-Community sollte auch die potenziellen Anwendungen der Quantencomputertechnologie erforschen, wie z.B. die Optimierung von On-Chain-Berechnungen, die Verbesserung der Effizienz der Ressourcenplanung und die Verbesserung des Datenschutzes. Diese Innovationen könnten neue Wachstumsimpulse in die Blockchain-Technologie einbringen.
Obwohl die weit verbreitete Anwendung von Quantencomputern noch nicht stattgefunden hat, ist ihre eventual Ankunft unvermeidlich. In diesem Kontext werden Blockchain-Sicherheitsframeworks, die auf traditioneller Kryptographie basieren, allmählich durch Sicherheitsgarantien ersetzt, die auf quantenresistenter Kryptographie beruhen.
Unternehmen wie Safeheron arbeiten bereits mit akademischen Institutionen zusammen, um aktiv quantenresistente Algorithmen zu erforschen und somit die Grundlage für die technologische Evolution der Sicherheit digitaler Vermögenswerte zu legen. Darüber hinaus hat das Blockchain-Ökosystem begonnen, öffentliche Ketten zu sehen, die quantenresistente Algorithmen integrieren, was einen zukunftsweisenden Trend zeigt, der übermäßige Sorgen lindert.
Die Entwicklung der Quantencomputertechnologie stellt nicht nur potenzielle Sicherheitsherausforderungen für die Blockchain-Technologie dar, sondern bietet auch Chancen für technologischen Fortschritt und Effizienzverbesserungen. Durch eine aktive Auseinandersetzung mit diesen Veränderungen und eine Umsetzung von Transformationen kann die Blockchain-Technologie auch in Zukunft von Innovationen profitieren und höhere Reifegrade und Kreativität erreichen.
[1] Lernen Sie Willow kennen, unseren hochmodernen Quanten-Chip
[2] John Preskill - Einführung in die Quanteninformation (Teil 1) - CSSQI 2012
[3] Quantum-Ressourcenschätzungen für die Berechnung von diskreten Logarithmen elliptischer Kurven
[4] Unterdrückung von Quantenfehlern durch Skalierung eines logischen Qubits des Oberflächencodes
[5]Quantenfehlerkorrektur unterhalb des Schwellenwerts des Oberflächen-Codes
[6]Wie man 2048-Bit-RSA-Integer in 8 Stunden mit 20 Millionen verrauschten Qubits faktorisiert
[7] Googles Fahrplan für die Quantencomputertechnologie
Teilen
Nội dung
Googles neuester Quantencomputing-Chip, "Willow," hat die Aufmerksamkeit der globalen Tech-Community auf sich gezogen. Diese bahnbrechende Entwicklung zeigt nicht nur die neuesten Errungenschaften im Quantencomputing, sondern wirft auch kritische Diskussionen über die möglichen Auswirkungen auf die Blockchain-Sicherheit auf. Die Grundlage der Blockchain-Sicherheit liegt in komplexen kryptografischen Herausforderungen, und Fortschritte im Quantencomputing können eine Bedrohung für diese Grundlage darstellen. Dieser Artikel befasst sich mit den möglichen Auswirkungen von Googles "Willow"-Chip auf die Blockchain-Sicherheit.
Gemäß offiziellen Berichten [1] hat Google seinen neuesten Quantencomputer-Chip namens „Willow“ vorgestellt und zwei bedeutende Durchbrüche verkündet:
Lassen Sie uns diese Erfolge einmal genauer betrachten. Wir werden den ersten Durchbruch bei der Quantenfehlerkorrektur vorerst beiseitelegen und uns auf den zweiten konzentrieren: die Rechengeschwindigkeit. Wenn 'Willow' in fünf Minuten abschließen kann, was ein Supercomputer 1.025 Jahre brauchen würde, um zu erreichen, stellt es einen eindrucksvollen Vergleich zu traditionellen kryptografischen Herausforderungen dar.
Beispielsweise betrachten Sie die Zeit, die ein klassischer Computer benötigt, um einen RSA-2048-Verschlüsselungsschlüssel per Brute-Force zu knacken. Laut Schätzungen von John Preskill [2] würde ein Heimcomputer etwa 10¹⁶ Jahre benötigen, um RSA-2048 zu knacken.
Angesichts der enormen Fähigkeiten von „Willow“ scheint es trivial zu sein, Aufgaben, die einen Supercomputer 1.025 Jahre benötigen, in nur fünf Minuten zu bewältigen. Bedeutet dies, dass das kryptografische Problem der Integer-Faktorisierung, auf dem RSA basiert, nicht mehr sicher ist? Nach derselben Logik wurde das Problem des diskreten Logarithmus auf elliptischen Kurven, ein weiterer Eckpfeiler der Blockchain-Sicherheit, bereits gelöst? Diese Spekulationen deuten auf ein Szenario hin, in dem die Sicherheit der Blockchain in einem Augenblick zusammenbrechen könnte.
Aber ist das wirklich der Fall?
Lassen Sie uns tiefer in die tatsächlichen Auswirkungen dieser Entwicklungen auf Kryptographie und Blockchain-Technologie eintauchen. (Fortsetzung folgt…)
Quantencomputer haben das theoretische Potenzial, klassische kryptografische Herausforderungen zu knacken, wie das Problem der ganzen Zahl-Faktorisierung und das diskrete Logarithmus-Problem, die viele Verschlüsselungssysteme unterstützen. Aber welches Maß an Quantencomputer-Fähigkeiten ist tatsächlich erforderlich, um bestimmte kryptografische Herausforderungen zu knacken? Dies wollen wir anhand der folgenden Beispiele untersuchen:
Faktorisierung einer großen Zahl aus einem RSA-2048 öffentlichen Schlüssel.
Das Ableiten eines privaten Schlüssels aus einem öffentlichen Schlüssel auf elliptischen Kurven wie Secp256k1, Secp256r1 oder Ed25519.
Für herkömmliche Computer sind beide Aufgaben rechnerisch unmöglich. Basierend auf ihren jeweiligen Sicherheitsparametern ist die Elliptic Curve Cryptography (ECC) etwas schwerer zu brechen als RSA. Die Forschung von Martin et al. [3] legt jedoch nahe, dass die Situation für Quantencomputer umgekehrt ist: RSA ist etwas schwerer als ECC. Aus Gründen der Einfachheit behandeln wir beide Probleme als gleich schwierig und konzentrieren uns auf das zweite Problem.
Die Rolle von Secp256k1 und ähnlichen Kurven in der Sicherheit der Blockchain
Elliptische Kurven wie Secp256k1, Secp256r1 und Ed25519 werden in Blockchain-Systemen weit verbreitet eingesetzt. Das diskrete Logarithmusproblem (DLP) auf diesen Kurven bildet das Rückgrat der Blockchain-Sicherheit, einschließlich Systemen wie Bitcoin. Wenn dieses Problem gelöst wird, könnten Angreifer Transaktionen auf der Blockchain nach Belieben fälschen. Offensichtlich würde die Fähigkeit, DLP auf elliptischen Kurven zu lösen, direkt über das Überleben der Blockchain-Sicherheit entscheiden.
Quantum Computing Anforderungen für das Brechen von DLP
Laut Martin et al. [3] würde die Lösung des diskreten Logarithmusproblems auf einer elliptischen Kurve, die über einem Primordnungsfeld definiert ist (mit einer Ordnungsgröße von nnn Bits), Folgendes erfordern:
Beispiel: Brechen der NIST-Standardkurve P-256
Für die P-256 Kurve, die in vielen kryptographischen Systemen verwendet wird:
Auswirkungen auf die Sicherheit der Blockchain
Ein Quantencomputer mit nur 2.330 logischen Qubits und der Fähigkeit zur Ausführung von 1,26×10111,26 \times 10^{11}1,26×1011 Toffoli-Gates würde ausreichen, um Blockchain-Systeme zu kompromittieren. Diese Fähigkeit würde die Sicherheit von Bitcoin, Ethereum und nahezu allen anderen Blockchain-Netzwerken, die auf ECC zur kryptografischen Absicherung angewiesen sind, zerstören.
Obwohl diese Ressourcenanforderungen entmutigend sind, deuten die raschen Fortschritte in der Technologie des Quantencomputings darauf hin, dass die Realisierung solcher Fähigkeiten langfristig nicht unmöglich sein könnte. Die derzeitigen Schätzungen legen jedoch nahe, dass die Umsetzung solcher Quantensysteme noch 15–20 Jahre in der Zukunft liegt und der Blockchain-Branche somit ein entscheidendes Zeitfenster bietet, um quantensichere Kryptographie zu entwickeln und einzusetzen.
Die außergewöhnliche Rechenleistung von Quantencomputern, die bei weitem die von klassischen Computern übertrifft, liegt in ihrer Fähigkeit, QuantenüberlagerungundQuantenparallelismusdurchQuantenbits (Qubits). Im Gegensatz zur klassischen Berechnung, die auf linearen Prozessen beruht, ermöglicht die Quantenberechnung komplexe Berechnungen, indem sie gleichzeitig auf mehreren Zuständen arbeitet. Die einzigartigen Eigenschaften von Qubits bringen jedoch auch bedeutende Herausforderungen mit sich.
Qubits sind äußerst empfindlich gegenüber Umgebungsgeräuschen und externen Störungen, wodurch ihre Zustände instabil werden und ihre quantenmechanischen Eigenschaften verlieren können (ein Phänomen, das alsDekohärenzFehler können praktisch in jeder Phase eines Quantenrechenprozesses auftreten - während der Initialisierung, Zustandserhaltung, Quantengatteroperation oder Ergebnismessung. Solche Fehler können Quantenalgorithmen unwirksam machen oder falsche Ergebnisse liefern. Daher ist es wichtig, die Stabilität und Genauigkeit von Qubits sicherzustellen, um hochwertige Qubitsist eine der zentralen Herausforderungen in der Quantenberechnung.
Bewältigung der Herausforderung: Logische Qubits und Fehlerkorrektur
Eine der Schlüsselstrategien zur Überwindung der Qubit-Instabilität ist der Aufbau von logischen Qubits, die Fehlerquoten durch die Kombination mehrerer physischer Qubits mit Quantenfehlerkorrekturcodes reduzieren. Diese Codes, wie Oberflächencodes und kartesische Codes, ermöglichen die Erkennung und Korrektur von Fehlern und erhöhen so die Robustheit und Zuverlässigkeit von Quantensystemen.
Jedes logische Qubit erfordert in der Regel Dutzende bis Tausende von physischen Qubits, um es zu unterstützen. Obwohl logische Qubits die Fehlertoleranz von Quantencomputern erheblich verbessern, gehen sie mit erhöhten Anforderungen an physische Qubits und komplexen Fehlerkorrekturalgorithmen einher.
Eine kritische Herausforderung bei der Fehlerkorrektur in der Quantenphysik hat sich als ein Hauptengpass erwiesen. Forscher gingen ursprünglich davon aus, dass die Opferung zusätzlicher physischer Qubits die Genauigkeit der logischen Qubits verbessern würde. Die Realität hat jedoch das Gegenteil bewiesen. Aufgrund der inhärent hohen Fehlerquoten von physischen Qubits (im Bereich von 10⁻¹ bis 10⁻³) führten frühe Versuche der Fehlerkorrektur oft zu logischen Qubits mit noch höheren Fehlerquoten als die physischen Qubits selbst.
Dieses Paradoxon kann mit einem chaotischen Teamszenario verglichen werden: „Je mehr Personen beteiligt sind, desto mehr Chaos entsteht.“ Bei der Quantenfehlerkorrektur führte die schlechte Qualität der physischen Qubits häufig dazu, dass Fehlerkorrekturmechanismen mehr Fehler einführten, als sie beseitigten. Dieses Phänomen, das oft als „Überkorrektur ins Chaos“ beschrieben wird, unterstreicht die Bedeutung hochwertiger physischer Qubits als Grundlage für den Aufbau zuverlässiger logischer Qubits.
Ohne hochwertige logische Qubits bleibt praktische Quantencomputing außer Reichweite. Die Bewältigung dieser Herausforderung erfordert nicht nur Fortschritte in der Stabilität der physischen Qubits, sondern auch Durchbrüche in den Techniken zur Quantenfehlerkorrektur. Die Erreichung dieses Ziels ist entscheidend, um das volle Potenzial des Quantencomputings freizusetzen und seine derzeitigen Einschränkungen zu überwinden.
Mit einem soliden Verständnis der Herausforderungen im Zusammenhang mit der Quantencomputertechnologie können wir nun die Leistungen des Quantenchips „Willow“ von Google neu bewerten.
Einer der bahnbrechendsten Aspekte von "Willow" ist seine Fähigkeit, die langjährigen Hindernisse bei der Quantenfehlerkorrektur mithilfe von Oberflächen-Codes [4][5] zu überwinden. Durch Erhöhung der Anzahl von Qubits und Optimierung der Fehlerkorrekturtechniken hat "Willow" einen historischen Meilenstein erreicht: Die Fehlerkorrektur wurde von einem verlustbringenden Prozess zu einem Nettogewinn transformiert.
Oberflächenkode-Leistung
Zusätzlich hat der "Willow"-Chip die Berechnung des Random Circuit Sampling (RCS) Benchmark in weniger als fünf Minuten abgeschlossen. RCS ist eine weit verbreitete Methode zur Bewertung der Leistung von Quantencomputern.
Es ist jedoch wichtig zu beachten, dass der beeindruckende Leistungsunterschied zwischen dem Quantencomputer und einem klassischen Supercomputer in diesem Test teilweise auf den grundlegenden Unterschieden zwischen Quanten- und klassischer Berechnung beruht. Um dies besser zu verstehen, können wir eine unvollkommene Analogie verwenden: den Vergleich der „Geschwindigkeit eines Satelliten im Weltraum“ mit der „Geschwindigkeit eines Autos auf der Straße“.
Darüber hinaus sollte betont werden, dass RCS derzeit noch keine praktischen Anwendungsszenarien hat und hauptsächlich als Leistungsbewertungsinstrument dient.
Google Quantum Computing Roadmap
Das obige Diagramm veranschaulicht die sechs Stufen der Entwicklungs-Roadmap von Googles Quantencomputern und hebt den kritischen Weg von experimentellen Durchbrüchen zu praktischen Anwendungen im großen Maßstab hervor.
Mit der Sycamore-Prozessor, das Team demonstrierte Quantenberechnungen, die die klassische Berechnung überschritten. In nur 200 Sekunden erledigte der Prozessor eine Aufgabe, die einen herkömmlichen Supercomputer 10.000 Jahre dauern würde. Damit wurde die Grundlage für die Quantum Supremacy geschaffen. Die Ziele dieser Phase wurden mit einem Quantencomputer mit 54 physischen Qubits erreicht.
Das Weidenchipwurde verwendet, um den ersten Prototyp eines logischen Qubits zu demonstrieren und zu beweisen, dass die Quantenfehlerkorrektur die Fehlerquoten reduzieren kann. Dieser Durchbruch ebnete den Weg für den Bau von praktischen Quantencomputern im großen Maßstab und ermöglichte die Möglichkeit von nahzeitigen Anwendungen im Bereich der Intermediate-Scale-Quanten (NISQ). Die Ziele für diese Phase wurden ebenfalls erreicht, wobei der Quantencomputer 105 physikalische Qubits und eine logische Qubit-Fehlerquote von 10−310^{-3}10−3 erreichte.
Das Ziel besteht darin, langlebige logische Qubits mit einer Fehlerrate von weniger als eins in einer Million Operationen aufzubauen. Dies erfordert eine robustere Quantenfehlerkorrektur und eine skalierbare Hardwarearchitektur. Quantencomputer in diesem Stadium sollen über 103 physische Qubits verfügen, wobei die Fehlerraten des logischen Qubits auf 10^-6 reduziert werden.
Der Fokus richtet sich auf die Erreichung von logischen Quantengatteroperationen mit geringem Fehler, um sinnvolle Anwendungen zur Fehlerkorrektur in der Quantenberechnung zu ermöglichen. Es wird erwartet, dass Quantencomputer 10410^4104 physische Qubits erreichen und gleichzeitig eine logische Qubit-Fehlerrate von 10−610^{-6}10−6 aufrechterhalten.
Das System wird auf 100 logische Qubits erweitert und hochpräzise Gate-Operationen durchführen, um mehr als drei fehlertolerante Quantenanwendungen freizuschalten. Es wird erwartet, dass Quantencomputer über 10510^5105 physikalische Qubits verfügen, bei einer Fehlerquote von logischen Qubits von 10−610^{-6}10−6.
Das ultimative Ziel besteht darin, 1 Million Qubits zu kontrollieren und zu verbinden, um einen groß angelegten fehlertoleranten Quantencomputer zu schaffen. Dieses System soll in Bereichen wie Medizin und nachhaltigen Technologien breit einsetzbar sein, wobei über 10 Quantenanwendungen verschiedene Branchen transformieren. Quantencomputer in diesem Stadium werden 10610^6106 physikalische Qubits haben, wobei die Fehlerquoten für logische Qubits auf 10−1310^{-13}10−13 sinken.
Wie bereits besprochen, das Knacken üblicher kryptographischer Herausforderungen in der Blockchain, wie z.B. die elliptisches Kurven-Diskret-Logarithmus-Problem, erfordert etwa 2.330 hochwertige logische Qubits und einen Quantenschaltkreis mit 1,26×10^{11} Toffoli-Gates. Logische Qubits beruhen auf der Quantenfehlerkorrektur, wobei für jedes logische Qubit in der Regel mehrere physische Qubits zur Unterstützung erforderlich sind. Zum Beispiel verwendet der Willow-Chip eine Code-Entfernung von 7, wobei 72=49 physische Qubits pro logischem Qubit benötigt werden, insgesamt ungefähr 114.170 physische Qubits.
Diese Schätzung ist jedoch optimistisch. Mit zunehmender Skalierung und Tiefe der Quantenoperationen werden strengere Anforderungen an die Fehlerhäufigkeit des logischen Qubits entstehen. Derzeit liegt die Fehlerhäufigkeit des logischen Qubits von Willow bei etwa 10−310^{-3}10−3, weit entfernt von dem für die Lösung solcher Probleme erforderlichen Niveau. Laut Craig et al. [6] erfordert die Lösung des RSA-2048-Problems, das eine ähnliche Komplexität wie das Problem des elliptischen Kurven-Diskreten Logarithmus hat, eine Fehlerhäufigkeit des logischen Qubits von 10−1510^{-15}10−15 und einen Codeabstand von mindestens 27. Dies bedeutet, dass jedes logische Qubit 272=72927^2 = 729272=729 physikalische Qubits benötigen würde, insgesamt über 1.698.570 physikalische Qubits. Darüber hinaus liegt die erforderliche Fehlerhäufigkeit des logischen Qubits von 10−1510^{-15}10−15 nicht nur weit unter dem Wert von Willow von 10−310^{-3}10−3, sondern auch um zwei Größenordnungen niedriger als die erwartete Fehlerhäufigkeit des logischen Qubits für Quantencomputer in Googles Stage-6-Roadmap.
Basierend auf dem Entwicklungsplan von Google wird es erst möglich sein, das Problem des diskreten Logarithmus der elliptischen Kurve zu lösen, wenn die Quantencomputertechnologie die Stufe 6 erreicht. Um dieses Ziel zu erreichen, sind bedeutende Fortschritte bei der Qualität des logischen Qubits sowie bei der effizienten Verwaltung und Fehlerkorrektur von massiven Mengen an physischen Qubits erforderlich.
Unter der Annahme eines fünfjährigen Intervalls zwischen den Stufen 1 und 2 und eines gleichmäßigen Fortschritts wird geschätzt, dass es 15 bis 20 Jahre dauern wird, bis „Willow“ klassische kryptografische Herausforderungen überwindet. Selbst bei optimistischer Betrachtung würde es mindestens 10 Jahre dauern, um das erforderliche Niveau zu erreichen.
Sobald Quantencomputer ausreichende Rechenleistung erreichen, werden sie in der Lage sein, ihre asymmetrischen Vorteile auszunutzen, um die Kernsicherheitsmechanismen von Kryptowährungen schnell zu kompromittieren. Dazu gehört das Stehlen der privaten Schlüssel der Benutzer und die Übernahme der Kontrolle über ihre Vermögenswerte. In einem solchen Szenario würden bestehende Kryptowährungsnetzwerke einem systemischen Zusammenbruch gegenüberstehen, wodurch die Vermögenswerte der Benutzer ungeschützt wären.
Derzeit befindet sich jedoch Googles Willow-Quanten-Chip noch in den Anfangsstadien der Quantencomputing-Forschung und ist nicht in der Lage, kryptografische Herausforderungen wie die Faktorisierung großer ganzer Zahlen und diskrete Logarithmen von elliptischen Kurven zu lösen. Daher stellt er noch keine wesentliche Bedrohung für die Blockchain-Sicherheit dar. Die Entwicklung eines wirklich praktischen Quantencomputers steht vor zahlreichen technischen Herausforderungen, was diesen zu einem langen und mühsamen Weg macht.
Obwohl die Quantencomputer-Technologie noch nicht direkt verschlüsselte Vermögenswerte bedroht, kann ihre schnelle Entwicklung nicht ignoriert werden. Nach Prognosen auf der Grundlage aktueller technologischer Trends werden Quantencomputer voraussichtlich in den nächsten zehn Jahren mehrere wichtige technische Engpässe überwinden und sich allmählich dem kritischen Punkt nähern, an dem sie die traditionelle Kryptografie bedrohen könnten. In Erwartung dieser potenziellen Herausforderung muss die Blockchain-Community proaktiv planen und sich auf die technologischen Auswirkungen des Quantenzeitalters vorbereiten. Um die langfristige Sicherheit und Stabilität von Blockchain-Systemen zu gewährleisten, sind drei wesentliche Maßnahmen erforderlich:
Es ist entscheidend, die Forschung zu quantenresistenter Kryptographie voranzutreiben, wie zum Beispiel lattice-basierte Algorithmen, und ihre standardisierte Anwendung weltweit zu fördern. Dies hat höchste Priorität bei der Bewältigung von quantenbedingten Bedrohungen und ist für die zukünftige Sicherheit der Blockchain-Technologie von entscheidender Bedeutung.
Die Bemühungen sollten sich darauf konzentrieren, eine robuste quantenresistente kryptografische Infrastruktur aufzubauen, um eine starke technische Grundlage für die langfristige Sicherheit von Blockchain-Netzwerken zu schaffen. Dadurch wird sichergestellt, dass Systeme effektiv auf potenzielle quantenbedingte Bedrohungen reagieren und stabile Betriebsabläufe aufrechterhalten werden können.
Die Blockchain-Community sollte auch die potenziellen Anwendungen der Quantencomputertechnologie erforschen, wie z.B. die Optimierung von On-Chain-Berechnungen, die Verbesserung der Effizienz der Ressourcenplanung und die Verbesserung des Datenschutzes. Diese Innovationen könnten neue Wachstumsimpulse in die Blockchain-Technologie einbringen.
Obwohl die weit verbreitete Anwendung von Quantencomputern noch nicht stattgefunden hat, ist ihre eventual Ankunft unvermeidlich. In diesem Kontext werden Blockchain-Sicherheitsframeworks, die auf traditioneller Kryptographie basieren, allmählich durch Sicherheitsgarantien ersetzt, die auf quantenresistenter Kryptographie beruhen.
Unternehmen wie Safeheron arbeiten bereits mit akademischen Institutionen zusammen, um aktiv quantenresistente Algorithmen zu erforschen und somit die Grundlage für die technologische Evolution der Sicherheit digitaler Vermögenswerte zu legen. Darüber hinaus hat das Blockchain-Ökosystem begonnen, öffentliche Ketten zu sehen, die quantenresistente Algorithmen integrieren, was einen zukunftsweisenden Trend zeigt, der übermäßige Sorgen lindert.
Die Entwicklung der Quantencomputertechnologie stellt nicht nur potenzielle Sicherheitsherausforderungen für die Blockchain-Technologie dar, sondern bietet auch Chancen für technologischen Fortschritt und Effizienzverbesserungen. Durch eine aktive Auseinandersetzung mit diesen Veränderungen und eine Umsetzung von Transformationen kann die Blockchain-Technologie auch in Zukunft von Innovationen profitieren und höhere Reifegrade und Kreativität erreichen.
[1] Lernen Sie Willow kennen, unseren hochmodernen Quanten-Chip
[2] John Preskill - Einführung in die Quanteninformation (Teil 1) - CSSQI 2012
[3] Quantum-Ressourcenschätzungen für die Berechnung von diskreten Logarithmen elliptischer Kurven
[4] Unterdrückung von Quantenfehlern durch Skalierung eines logischen Qubits des Oberflächencodes
[5]Quantenfehlerkorrektur unterhalb des Schwellenwerts des Oberflächen-Codes
[6]Wie man 2048-Bit-RSA-Integer in 8 Stunden mit 20 Millionen verrauschten Qubits faktorisiert
[7] Googles Fahrplan für die Quantencomputertechnologie