Quantencomputer: Weitere Aussichten: Durchwachsen
Nach Jahrzehnten schwerer Schinderei ohne Aussicht auf Erfolg brummt die Forschung an Quantencomputern vor fiebriger Erregung und Aktivität. Vor knapp zwei Jahren machte IBM der Welt einen Quantencomputer zugänglich: den inzwischen IBM Q Experience genannten 5-Qubit-Rechner. Qubit steht für Quantenbit, die Informationseinheit der Quantencomputer. Er schien zunächst eher ein Spielzeug für Forscher zu sein als für ernsthafte Rechenaufgaben geeignet. Doch 70 000 Nutzer haben sich weltweit angemeldet, und die Zahl der Qubits des Quantencomputers wurde inzwischen vervierfacht. In den vergangenen Monaten haben IBM und Intel angekündigt, dass sie Quantencomputer mit 50 und mit 49 Qubits gebaut hätten. Und vermutlich hat auch Google einen ähnlichen Quantencomputer in Arbeit. "Es gibt eine Menge Energie in diesem Forschungsbereich, und der jüngste Fortschritt ist immens", sagt Jens Eisert, Physiker an der FU Berlin.
Und inzwischen spricht man über eine "Quantenüberlegenheit", über den Augenblick, in dem ein Quantencomputer bei der Ausführung einer Aufgabe die besten klassischen Supercomputer übertrifft. Bei einem Blick auf die Zahlen erscheint das absurd: 50 Qubits gegenüber Milliarden von klassischen Bits in jedem Laptop. Doch das Entscheidende bei einem Quantencomputer ist eben, dass ein Quantenbit viel, viel mehr zählt als ein klassisches Bit. 50 Qubits galten lange als die Mindestgröße, ab der Quantencomputer Berechnungen durchführen könnten, die auf klassischen Computern eine undurchführbar lange Zeit benötigen würden. Mitte 2017 verkündeten Forscher von Google, sie hofften, bis Ende des Jahres die Quantenüberlegenheit zu erreichen. Jüngst um eine Aktualisierung gebeten, kommentierte ein Google-Sprecher: "Wir hoffen, so schnell wie möglich Ergebnisse zu verkünden, aber wir überprüfen die Arbeit noch einmal in allen Einzelheiten, um sicherzugehen, dass wir ein solides Ergebnis haben, bevor wir es bekannt geben."
Es liegt nahe, daraus den Schluss zu ziehen, die grundlegenden Probleme seien im Prinzip gelöst und der Weg zu allgegenwärtigen Quantencomputern sei jetzt nur noch eine Angelegenheit der Ingenieure. Doch das wäre ein Fehler. Die fundamentale Physik der Quantencomputer ist weit von einer Lösung entfernt und lässt sich nicht von den Anwendungen trennen. Selbst wenn wir in Kürze den Meilenstein Quantenüberlegenheit erreichen und sogar hinter uns lassen sollten, wird sich erst in den kommenden ein, zwei Jahren zeigen, ob Quantencomputer tatsächlich die Computertechnik revolutionieren. Es ist immer noch alles offen, und es gibt keine Garantie dafür, dass das große Ziel in greifbare Nähe kommt.
Mund halten und rechnen
Sowohl die Vorteile als auch die Herausforderungen der Quantencomputer haben ihre Ursache in eben der Physik, welche die Quantencomputer überhaupt möglich macht. Die grundlegende Geschichte wurde oft genug erzählt, aber nicht immer mit den Feinheiten, welche die Quantenmechanik erfordert. Klassische Computer kodieren und manipulieren Informationen als Folge binärer Ziffern, also Nullen und Einsen. Quantencomputer machen dasselbe, nur dass ihre Informationseinheiten, die Qubits, sich in einer Superposition der Zustände 0 und 1 befinden können. Das bedeutet: Eine Messung des Zustands eines Qubits liefert mit einer wohldefinierten Wahrscheinlichkeit entweder 0 oder 1.
Um eine Berechnung mit vielen Qubits durchzuführen, müssen sich diese ununterbrochen in voneinander abhängigen Superpositionen von Zuständen befinden – einem "quantenkohärenten" Zustand, in dem die Qubits miteinander verschränkt sind. Dann nämlich beeinflusst die Änderung eines Qubits zugleich alle anderen. Das bedeutet, Rechenoperationen mit Qubits zählen mehr als solche mit klassischen Bits. Bei klassischen Computern wächst die Rechenleistung einfach proportional mit der Anzahl der Bits. Doch bei Quantencomputern verdoppelt sich die Rechenleistung mit jedem zusätzlichen Qubit. Deshalb ist der Unterschied zwischen einer Maschine mit 5 und einer mit 50 Qubits so gewaltig.
Oft liest man, der Vorteil der Quantencomputer liege darin, dass die Verfügbarkeit von Superpositionen die Anzahl der kodierbaren Zustände im Vergleich zu klassischen Bits gewaltig vergrößere. Oder dass die Verschränkung es erlaube, viele Berechnungen parallel durchzuführen. Beide Aussagen enthalten – manchmal – ein Körnchen Wahrheit. Aber beide treffen nicht die Essenz der Quantencomputer. So ist ein hoher Grad von Verschränkung keineswegs entscheidend für Quantencomputer. Es ist nicht einfach, qualitativ auszudrücken, warum Quantencomputer so mächtig sind – und zwar aus demselben Grund, aus dem es so schwer ist, auszudrücken, was die Quantenmechanik überhaupt bedeutet. Die Gleichungen der Quantentheorie zeigen zwar, dass es funktioniert: Zumindest bestimmte Arten von Berechnungen wie beispielsweise die Faktorisierung oder das Durchsuchen von Datenbanken kann ein Quantencomputer erheblich schneller durchführen als ein klassischer Rechner. Aber was ist nun wirklich der Grund dafür?
"Wenn genug Quantenmechanik zur Verfügung steht, in einem bestimmten Sinn, dann gehen die Berechnungen schneller. Sonst eben nicht"
Daniel Gottesman
Die vielleicht sicherste Beschreibung der Arbeit eines Quantencomputers ist die Aussage, dass die Quantenmechanik auf irgendeine Art und Weise eine Ressource für Berechnungen zugänglich macht, die klassischen Geräten nicht zur Verfügung steht. Der Quantentheoretiker Daniel Gottesman vom Perimeter Institute im kanadischen Waterloo drückt es so aus: "Wenn genug Quantenmechanik zur Verfügung steht, in einem bestimmten Sinn, dann gehen die Berechnungen schneller. Sonst eben nicht."
Doch ein paar Dinge sind immerhin klar. Um Quantenberechnungen durchzuführen, müssen alle Qubits kohärent sein. Und das ist nicht einfach. Die Wechselwirkung eines Systems quantenkohärenter Objekte mit seiner Umgebung schafft Pfade, über welche die Kohärenz gewissermaßen ausläuft, ein als Dekohärenz bezeichneter Prozess. Will man einen Quantencomputer bauen, so muss man die Dekohärenz verhindern – und das schaffen die Forscher derzeit nur für Bruchteile von Sekunden. Diese Herausforderung wächst zudem mit der Anzahl der Qubits. Das ist der Hauptgrund dafür, warum Quantencomputer, obwohl bereits 1982 von Richard Feynman vorgeschlagen und obwohl es bereits in den 1990er Jahren eine Theorie der Quantencomputer gab, erst jetzt in der Lage sind, ernsthafte Berechnungen durchzuführen.
Schwer berechenbare Quantenfehler
Es gibt noch einen zweiten fundamentalen Grund dafür, warum Quantencomputer schwer zu realisieren sind. Wie nahezu jeder Vorgang in der Natur rauschen Quantencomputer. Zufällige Fluktuationen durch die Wärme in den Qubits oder durch fundamentale quantenmechanische Prozesse führen dann und wann dazu, dass der Zustand eines Qubits umklappt oder völlig randomisiert wird – und das kann zu einem Fehler bei der Berechnung führen. Auch bei klassischen Computern gibt es dieses Problem, aber es lässt sich leicht lösen: Man hat einfach zwei oder mehr Kopien jedes Bits, so dass ein zufällig verändertes Bit auffällt und korrigiert werden kann.
Quantencomputer-Forscher haben sich eine Reihe von Strategien für den Umgang mit dem Rauschen ausgedacht. Doch all diese Strategien bringen eine hohe Last an zusätzlich nötigen Berechnungen mit sich – die gesamte Rechenleistung wird dann für die Korrektur der Fehler eingesetzt und nicht für die eigentliche Berechnung. "Die derzeitige Häufigkeit von Fehlern begrenzt die Länge von Berechnungen, die sich durchführen lassen", sagt Andrew Childs, einer der Direktoren des Joint Center for Quantum Information and Computer Science der University of Maryland. "Wir müssen es erheblich besser machen, wenn wir etwas Interessantes berechnen wollen."
Ein großer Teil der Forschung auf dem Gebiet der Quantencomputer wurde daher der Korrektur von Fehlern gewidmet. Ein Teil der Schwierigkeiten hat ihre Ursache dabei in einer anderen wichtigen Eigenschaft von Quantensystemen: Superpositionen lassen sich nur aufrechterhalten, bis man den Wert eines Qubits misst. Führt man eine Messung durch, so kollabiert die Superposition zu einem definierten Wert – entweder 1 oder 0. Wie soll man aber herausfinden, ob ein Qubit fehlerhaft ist, wenn man seinen Zustand nicht kennt?
Eine raffinierte Methode basiert darauf, das zu prüfende Qubit an ein weiteres "Hilfs-Qubit" zu koppeln. Dieses nimmt an den folgenden Berechnungen nicht teil und kann deshalb untersucht werden, ohne dass der Zustand des ursprünglichen Qubits auch kollabiert. Doch das lässt sich nur schwer realisieren. Bei diesem Verfahren muss man, um ein echtes Qubit zu erzeugen, mit dem sich eine Berechnung samt Fehlerkorrektur durchführen lässt, viele physikalische Qubits einsetzen.
"Maschinen ohne Fehlerkorrektur sind sehr primitive Computer, und mit solchen primitiven Maschinen ist keine Überlegenheit möglich"
Gil Kalai
Wie viele? Etwa 10 000 der heutigen physikalischen Qubits wären nötig, um ein einziges logisches Qubit zu erhalten, schätzt der Quantentheoretiker Alán Aspuru-Guzik von der Harvard University – eine für die Praxis unmögliche Anzahl. Wenn die Qubits sich erheblich verbessern lassen, so der Forscher, reichen vielleicht ein paar tausend oder sogar einige hundert. Eisert ist weniger pessimistisch. Seiner Ansicht nach könnten bereits heute etwa 800 physikalische Qubits ausreichen, aber selbst das sei "eine erhebliche Last". Deshalb müsse man momentan Wege finden, mit fehleranfälligen Qubits zurechtzukommen.
Eine Alternative zur Fehlerkorrektur ist, solche Fehler entweder zu vermeiden oder ihren Einfluss auszuschalten. So entwickeln beispielsweise Forscher von IBM Verfahren, mit denen sich mathematisch herausfinden lässt, wie viele Fehler wahrscheinlich bei einer Berechnung aufgetreten sind. Dann lässt sich das Ergebnis einer Berechnung auf den theoretischen Grenzfall eines Quantencomputers ohne Rauschen extrapolieren.
Einige Forscher halten das Problem der Fehlerkorrektur für unlösbar – und denken deshalb, dass Quantencomputer niemals die hochgesteckten Erwartungen erfüllen werden. "Die Erschaffung fehlerkorrigierender Quantenkodes ist schwieriger, als Quantenüberlegenheit zu demonstrieren", gibt der Mathematiker Gil Kalai von der Hebräischen Universität Jerusalem in Israel zu bedenken. "Aber Maschinen ohne Fehlerkorrektur sind sehr primitive Computer", ergänzt er, "und mit solchen primitiven Maschinen ist keine Überlegenheit möglich." Mit anderen Worten, solange Quantencomputer Fehler machen, werden sie niemals besser sein als klassische Computer.
"Ein universeller fehlertoleranter Quantencomputer, der mit logischen Qubits arbeitet, liegt noch in weiter Zukunft"
Jay Gambetta
Andere Forscher glauben jedoch, das Problem werde sich eines Tages lösen lassen. "Unsere jüngsten Experimente bei IBM zeigen die Basiselemente eines Quantenkorrektursystems für kleine Rechner", erläutert der Quanteninformationsforscher Jay Gambetta vom Thomas J. Watson Research Center von IBM. "Das ebnet den Weg zu größeren Rechnern, in denen Qubits trotz des vorhandenen Rauschens Quanteninformation zuverlässig und langfristig speichern können." Trotzdem gibt er zu, dass "ein universeller fehlertoleranter Quantencomputer, der mit logischen Qubits arbeitet, noch in weiter Zukunft liegt". Childs machen solche Entwicklungen vorsichtig optimistisch: "Ich bin sicher, dass wir verbesserte experimentelle Demonstrationen [von Fehlerkorrekturen] sehen werden. Aber ich denke, es wird eine Weile dauern, bis diese in wirklichen Berechnungen Verwendung finden."
Ein Leben mit Fehlern
In absehbarer Zeit bleiben Quantencomputer anfällig für Fehler – die Frage ist also, wie man mit diesen Fehlern leben kann. Bei IBM sprechen die Forscher von "approximiertem Quantencomputing" für die nahe Zukunft. Es geht darum, Methoden zu finden, um mit dem Rauschen umzugehen. Es sind fehlertolerante Algorithmen nötig, die trotz der auftretenden Fehler ein korrektes Ergebnis liefern. Die Aufgabe ähnelt ein wenig der Stimmenauszählung bei einer Wahl. Das Ergebnis soll stimmen, auch wenn einige wenige Stimmzettel falsch gezählt werden. "Eine genügend umfangreiche, sehr genaue Berechnung mit einem Quantencomputer sollte auch dann Vorteile [gegenüber einer Berechnung mit einem klassischen Computer] bieten, wenn sie nicht vollständig fehlertolerant ist", sagt Gambetta.
Eine der ersten fehlertoleranten Anwendungen ist von größerem Wert für Wissenschaftler als für die Allgemeinheit: Es geht um Simulationen im atomaren Bereich. Genau diese mögliche Anwendung war es auch, die Feynman auf die Idee der Quantencomputer brachte. Die Gleichungen der Quantenmechanik bieten zwar einen Weg, die Eigenschaften eines Moleküls, also etwa eines neuen Medikaments zu beschreiben, also seine Stabilität und sein chemisches Reaktionsvermögen. Doch diese Gleichungen lassen sich klassisch nur mit einer Vielzahl von Vereinfachungen lösen.
Im Gegensatz dazu liegt das Quantenverhalten von Elektronen und Atomen "relativ nahe beim angeborenen Verhalten von Quantencomputern", konstatiert Childs. Deshalb könne man ein exaktes Computermodell eines Moleküls erstellen. Und Aspuru-Guzik ergänzt: "Viele Forscher auf diesem Gebiet, darunter auch ich, glauben, dass Quantenchemie und Materialwissenschaften zu den ersten Anwendungen solcher Geräte zählen werden." Aspuru-Guzik versucht an vorderster Front, die Forschung über Quantencomputer in diese Richtung zu lenken.
Bereits auf den derzeit verfügbaren, sehr kleinen Quantencomputern beweisen Quantensimulationen ihren Wert. Ein Forscherteam, an dem Aspuru-Guzik beteiligt ist, hat einen Algorithmus entwickelt, den "variational quantum eigensolver" VQE (auf Deutsch etwa: Variationsmethode zur Berechnung von Eigenwerten mit Hilfe eines Quantencomputers), der effizient die niedrigsten Energiezustände von Molekülen finden kann – selbst mit verrauschten Qubits. Bislang lassen sich damit zwar nur sehr kleine Moleküle mit wenigen Elektronen behandeln, die auch klassische Computer akkurat simulieren können. Aber die Leistungsfähigkeit der Quantencomputer wächst, wie Gambetta und seine Mitarbeiter im vergangenen September zeigten, als sie mit einer 6-Qubit-Maschine von IBM die elektronischen Strukturen von Molekülen wie Lithiumhydrid und Berylliumhydrid berechneten. Diese Arbeit war "ein signifikanter Sprung vorwärts", so der Physikochemiker Markus Reiher von der ETH Zürich. "Die Verwendung von VQE für Simulationen kleiner Moleküle ist ein großartiges Beispiel dafür, was kurzfristig mit heuristischen Algorithmen möglich ist", betont Gambetta.
Aspuru-Guzik gibt jedoch zu, dass selbst für diese Anwendung vermutlich logische Qubits mit Fehlerkorrektur nötig sind, damit Quantencomputer klassische Rechner übertreffen können. "Ich wäre wirklich begeistert, wenn Quantencomputer mit Fehlerkorrektur verwirklicht werden", sagt er. "Wenn wir mehr als 200 logische Qubits hätten, könnten wir in der Quantenchemie Dinge tun, die mit Standardmethoden nicht möglich sind", ergänzt Reiher. "Und wenn wir etwa 5000 solcher Qubits hätten, dann würden Quantencomputer dieses Forschungsgebiet völlig transformieren."
Schnelles Wachstum weckt Hoffnungen
Trotz der Herausforderungen, die zum Erreichen dieser Ziele zu überwinden sind, hat das schnelle Wachstum von 5 auf 50 Qubits innerhalb von kaum mehr als einem Jahr Hoffnungen geweckt. Aber man sollte sich nicht zu sehr auf diese Zahlen fixieren, denn sie sind nur ein Teil der Geschichte. Es geht nicht nur darum, wie viele Qubits man hat. Wichtiger noch ist, wie gut diese Qubits und wie effizient die verwendeten Algorithmen sind.
Jede Quantenberechnung muss vollständig abgeschlossen sein, bevor die Dekohärenz eintritt und die Qubits zerstört. Die bisher erstellten Gruppen von Qubits haben typische Dekohärenzzeiten von einigen wenigen Mikrosekunden. Die Anzahl der logischen Operationen, die sich in diesem kurzen Augenblick durchführen lassen, hängt davon ab, wie schnell sich die Quantengatter schalten lassen – wenn sie zu langsam sind, kommt es nicht mehr darauf an, wie viele Qubits man zur Verfügung hat. Die Anzahl der Gatteroperationen, die für eine Berechnung nötig sind, wird als Tiefe der Berechnung bezeichnet. Flache Algorithmen mit geringer Tiefe lassen sich leichter durchführen als Algorithmen mit großer Tiefe. Aber die entscheidende Frage ist natürlich, ob sich damit sinnvolle Berechnungen durchführen lassen.
Ein weiterer wichtiger Aspekt ist, dass nicht alle Qubits gleich stark verrauscht sind. Theoretisch sollte es möglich sein, Qubits mit sehr geringem Rauschen aus so genannten topologischen Zuständen bestimmter Materialien anzufertigen. Dabei dient die "Form" der Zustände der für die Speicherung binärer Informationen genutzten Elektronen als eine Art Schutz gegen zufälliges Rauschen. Forscher von Microsoft und anderen Unternehmen suchen in exotischen Quantenmaterialien nach solchen topologischen Zuständen. Aber es gibt keine Garantie dafür, dass derartige Zustände gefunden werden oder dass sie kontrollierbar sind.
Forscher von IBM haben vorgeschlagen, die Leistung einer Berechnung auf einem Quantencomputer mit einer als "Quantenvolumen" bezeichneten Zahl auszudrücken. Darin sind alle relevanten Faktoren gebündelt: Anzahl und Konnektivität der Qubits, Tiefe des Algorithmus sowie die Qualität der Gatter, etwa ihr Rauschen. Das daraus berechnete Quantenvolumen beschreibt tatsächlich die Leistung einer Quantenberechnung. Der beste Weg nach vorn sei es, so Gambetta, Quantenhardware zu entwickeln, die das verfügbare Quantenvolumen vergrößert.
Quantenüberlegenheit ist eine recht unscharfe Angelegenheit
Das ist einer der Gründe dafür, dass die viel gepriesene Quantenüberlegenheit eine recht unscharfe Angelegenheit ist. Ein 50-Qubit-Quantencomputer, der einen modernen Supercomputer übertrifft – das klingt überwältigend. Doch es lässt eine Menge Fragen offen. Bei welchem Problem übertrifft er den Supercomputer? Woher wissen wir, dass der Quantencomputer die richtige Lösung liefert, wenn wir es nicht mit einem bewährten klassischen Computer überprüfen können? Und wie können wir sicher sein, dass der klassische Computer es nicht auch besser könnte – mit dem richtigen Algorithmus?
Das Konzept der Quantenüberlegenheit ist also mit Vorsicht zu genießen. Einige Forscher ziehen es daher inzwischen vor, von "Quantenvorteil" zu reden. Damit bezeichnen sie die Zunahme an Geschwindigkeit, die ein Quantencomputer bietet, ohne eine Aussage darüber zu machen, was am besten ist. Aber unabhängig von der Bezeichnung: Die Demonstration, dass Quantencomputer Aufgaben durchführen können, die jenseits der Möglichkeiten der derzeitigen klassischen Computer liegen, wäre von großer psychologischer Bedeutung für das Forschungsgebiet. "Die Vorführung eines eindeutigen Quantenvorteils wäre ein bedeutender Meilenstein", sagt Eisert. Es würde beweisen, dass Quantencomputer unsere technischen Möglichkeiten tatsächlich erweitern würden.
"Damit Quantencomputer Fahrt aufnehmen und zur Blüte gelangen können, müssen wir es der Welt ermöglichen, sie zu nutzen und den Umgang mit ihnen zu lernen"
Jay Gambetta
Zwar wäre es zunächst eher ein symbolischer Akt als bereits eine Transformation unserer verfügbaren Computerressourcen. Trotzdem könnte ein solcher Schritt wichtig sein. Denn wenn Quantencomputer erfolgreich sind, bedeutet das wahrscheinlich nicht, dass IBM, Google und andere Unternehmen plötzlich ihre neuen Superrechner zum Verkauf anbieten. Vielmehr wird es zunächst zu einer interaktiven und vielleicht schwierigen Zusammenarbeit von Entwicklern und Anwendern kommen. Und die Anwender werden die dazu notwendigen neuen Fähigkeiten nur entwickeln, wenn sie ausreichend darauf vertrauen können, dass sich der dazu nötige Aufwand auszahlt.
Deshalb legen IBM und Google so viel Wert darauf, ihre Maschinen zugänglich zu machen, sobald sie fertig sind. Neben dem 16-Qubit-Rechner IBM Q Experience, den jeder nutzen kann, der sich online anmeldet, stellt IBM inzwischen seinen Geschäftskunden – darunter JP Morgan Chase, Daimler, Honda, Samsung und der University of Oxford – eine 20-Qubit-Version zur Verfügung. Damit können die Kunden nicht nur herausfinden, was ihnen diese Maschinen zu bieten haben. Die Maschinen helfen auch dabei, eine wachsende Zahl von Programmierern auszubilden, die mit Quantencomputern umgehen können – und die dann in der Lage sind, Ressourcen und Lösungen zu entwickeln, die jenseits der Möglichkeiten einzelner Unternehmen liegen. "Damit Quantencomputer Fahrt aufnehmen und zur Blüte gelangen können, müssen wir es der Welt ermöglichen, sie zu nutzen und den Umgang mit ihnen zu lernen", unterstreicht Gambetta. "Jetzt ist die Zeit für Wissenschaft und Industrie gekommen, sich für Quantencomputer bereit zu machen."
Von "Spektrum der Wissenschaft" übersetzte und redigierte Fassung des Artikels "The Era of Quantum Computing Is Here. Outlook: Cloudy" aus "Quanta Magazine", einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.