Die Diskussion über die Quantum-Gefahr für Bitcoin und andere Kryptowährungen hat in dieser Woche neue Schärfe bekommen. Auslöser sind mehrere Forschungsarbeiten, angeführt von Google Quantum AI, die den Rechenaufwand für einen Angriff auf die Kryptografie von Blockchains deutlich niedriger ansetzen als bisher – und damit die Frage aufwerfen, ob sich der Kryptomarkt auf ein Risiko zubewegt, das lange als fernes Zukunftsthema galt.
Für Anleger ist das nicht deshalb akut, weil morgen ein Quantencomputer Bitcoin knackt. Relevant ist es jetzt, weil sich mit den neuen Schätzungen der Zeithorizont verschiebt: Nicht die grundsätzliche Möglichkeit eines Angriffs steht zur Debatte, sondern die Frage, ob die Netzwerke schnell genug aufrüsten können, bevor die Hardware weit genug ist.
Google rückt das Risiko näher an die Gegenwart
Im Zentrum steht ein Whitepaper von Google Quantum AI, das die Ressourcen für einen Angriff auf die elliptische Kurvenkryptografie von Bitcoin und Ethereum drastisch nach unten korrigiert. Nach den neuen Berechnungen könnte ein hinreichend leistungsfähiger Quantencomputer mit weniger als 500.000 physischen Qubits auskommen. Frühere Schätzungen bewegten sich noch im Millionenbereich. Entscheidend daran ist weniger die exakte Zahl als der Trend: Die technischen Hürden sinken deutlich schneller als viele Marktteilnehmer bislang angenommen hatten.
Besonders brisant ist dabei das von Google skizzierte Angriffsszenario auf Bitcoin-Transaktionen. Demnach könnte ein Quantenrechner in einem theoretischen Modell einen privaten Schlüssel in rund neun Minuten aus einem offengelegten öffentlichen Schlüssel ableiten. Das liegt gefährlich nah an der durchschnittlichen Bitcoin-Blockzeit von zehn Minuten. Damit wird aus einem abstrakten Sicherheitsproblem ein konkretes Timing-Risiko: Wenn eine Transaktion im Mempool sichtbar ist, könnte ein Angreifer sie unter bestimmten Bedingungen noch vor der Bestätigung abfangen und umleiten.
Für Ethereum fällt die Einordnung sogar noch ungünstiger aus. Anders als bei Bitcoin sind dort viele Konten strukturell anfälliger für sogenannte „At-Rest“-Angriffe, weil öffentliche Schlüssel nach der ersten Nutzung dauerhaft auf der Blockchain sichtbar bleiben. Das heißt: Ein Angreifer müsste nicht in einem engen Zeitfenster operieren, sondern könnte exponierte Konten über längere Zeiträume analysieren. Google schätzt, dass allein die 1.000 wertvollsten betroffenen Ethereum-Adressen mit zusammen rund 20,5 Millionen ETH in einem solchen Szenario in weniger als neun Tagen angegriffen werden könnten.
Alte Wallets, Taproot und die neue Größenordnung des Problems
Für Bitcoin ist vor allem der Altbestand relevant. Laut den zitierten Schätzungen könnten rund 6,7 bis 6,9 Millionen BTC in Wallets liegen, deren öffentliche Schlüssel bereits sichtbar sind und die damit in einem künftigen Quanten-Szenario leichter angreifbar wären. Darunter befinden sich viele Altadressen aus der Frühphase des Netzwerks, als Mining-Belohnungen noch bei 50 BTC lagen. Dass zuletzt wieder zehntausende Bitcoin aus Satoshi-Ära- oder jahrzehntealten Wallets bewegt wurden, bekommt vor diesem Hintergrund eine neue Deutungsebene: Nicht jeder Transfer muss mit Quantenrisiken zu tun haben, aber der Markt beginnt, solche Bewegungen neu zu lesen.
Hinzu kommt ein technischer Nebeneffekt der Bitcoin-Entwicklung selbst. Das Taproot-Upgrade aus dem Jahr 2021 hat Effizienz und Privatsphäre verbessert, zugleich aber in bestimmten Fällen dazu geführt, dass öffentliche Schlüssel standardmäßig sichtbarer werden. Was aus Sicht der Netzwerkarchitektur ein Fortschritt war, kann aus Quanten-Perspektive die Angriffsfläche vergrößern. Genau das macht die Debatte für den Markt so unangenehm: Die Verwundbarkeit ist nicht nur eine Frage veralteter Nutzergewohnheiten, sondern teilweise auch eine Folge moderner Protokollentscheidungen.
Parallel dazu verschärft eine zweite Forschungsrichtung die Diskussion zusätzlich. Forscher von Caltech und dem mit ihnen verbundenen Start-up Oratomic argumentieren, dass ein fehlertoleranter Quantencomputer mit neutralen Atomen und neuer Fehlerkorrektur mit nur 10.000 bis 20.000 Qubits auskommen könnte. Das ist zwar ebenfalls ein theoretisches Modell, zeigt aber, wie schnell sich die Referenzwerte verschieben. Während Google auf eine optimierte superconducting-basierte Architektur blickt, eröffnen Neutral-Atom-Systeme womöglich einen zweiten, noch effizienteren Pfad. Für den Kryptomarkt ist das entscheidend, weil sich das Risiko damit nicht mehr sauber auf eine einzelne Hardware-Roadmap begrenzen lässt.
Die Branche ist gespalten – und genau das ist das eigentliche Problem
Die Reaktionen in der Kryptoindustrie reichen von Alarm bis Gelassenheit. Einige Stimmen werten die Google-Forschung als Wendepunkt. Der Tenor: Post-Quantum-Sicherheit ist kein fernes Forschungsthema mehr, sondern eine infrastrukturelle Aufgabe der Gegenwart. Andere mahnen zur Nüchternheit und verweisen zu Recht darauf, dass heutige Quantencomputer von diesen Größenordnungen noch weit entfernt sind. Beides stimmt – und gerade darin liegt die Schwierigkeit.
Denn selbst wenn ein „Q-Day“ nicht unmittelbar bevorsteht, ist die Vorlaufzeit für die Umstellung öffentlicher Blockchains enorm. Bitcoin kann eine neue kryptografische Basis nicht einfach zentral ausrollen. Jede tiefgreifende Änderung erfordert langwierige Koordination, Konsensbildung und letztlich wahrscheinlich mehrere technische Zwischenschritte. Vorschläge wie BIP-360 zeigen zwar, dass an post-quantenresistenten Pfaden gearbeitet wird. Doch zwischen Testnet und breitem Mainnet-Einsatz liegt im Bitcoin-Ökosystem meist ein Zeitraum von Jahren. Historisch haben schon deutlich weniger fundamentale Upgrades wie SegWit oder Taproot lange gebraucht.
Ethereum wirkt hier organisatorisch etwas weiter. Die Ethereum Foundation hat bereits eine Post-Quantum-Roadmap umrissen und grundlegende Bereiche identifiziert, die angepasst werden müssten – von Validator-Signaturen über Accounts bis zu Beweissystemen. Das heißt nicht, dass Ethereum das Problem gelöst hätte. Aber es zeigt, dass dort das Thema bereits stärker als Architekturfrage behandelt wird, während Bitcoin die Debatte noch stärker aus der Perspektive von Risikoabwehr und Kompatibilität führt.
Die zeitliche Perspektive ist entscheidend – es geht auch um Glaubwürdigkeit
Aus Sicht von Decentralist wird der Markt derzeit vor allem an zwei Stellen unscharf. Einerseits wird die unmittelbare Bedrohung teils überzeichnet, als stünde ein flächendeckender Angriff kurz bevor. Dafür gibt es nach aktuellem Stand keinen belastbaren Hinweis. Andererseits wird die strategische Tragweite unterschätzt. Entscheidend ist nicht, ob ein Quantencomputer 2028, 2030 oder 2032 einsatzfähig wird. Entscheidend ist, dass die Richtung klar ist, während die Umstellung dezentraler Netzwerke strukturell langsam verläuft. Genau diese Asymmetrie macht das Thema marktpolitisch relevant.
Hinzu kommt, dass sich Regulierer und Technologiekonzerne bereits bewegen. NIST hat Post-Quantum-Standards festgelegt, staatliche Stellen arbeiten mit konkreten Übergangsfristen, und Google hat für die eigene Migration auf post-quantenresistente Kryptografie das Jahr 2029 als Zielmarke gesetzt. Wenn große Teile der klassischen IT-Sicherheitswelt operationalisieren, was Krypto noch diskutiert, entsteht ein Glaubwürdigkeitsproblem für einen Sektor, der sich selbst als technologisch führend versteht.
Im Ausblick dürfte sich die Aufmerksamkeit auf drei Punkte richten: erstens auf neue Hardware-Fortschritte bei Google, Microsoft, IBM und Neutral-Atom-Anbietern; zweitens auf die Frage, wie schnell Bitcoin und Ethereum konkrete Migrationspfade definieren; drittens auf On-Chain-Daten zu alten und exponierten Wallets. Für den Markt ist die Quantum-Debatte damit vorerst kein Auslöser für Panik, wohl aber ein Thema, das von einem theoretischen Hintergrundrisiko zu einer ernsthaften infrastrukturellen Baustelle aufgerückt ist.





