Direkt zum Inhalt

Quantencomputer: Gegen den Quantenfehlerteufel

Die ungewöhnlichen Eigenschaften, die Quantencomputer besonders leistungsfähig machen, bedingen gleichzeitig ihre größte Schwäche: die extreme Störungsanfälligkeit. Neue Techniken sollen die Fehler nun schneller beheben, als sie sich ansammeln können.
Die Informatiker haben gezeigt, dass man –gerade in der Quantenmechanik – Unendlichkeiten nicht immer durch große endliche Systeme annähern kann.
Quantencomputer könnten künftig wichtige Probleme lösen, doch dafür muss es erst gelingen, ihre Fehler zuverlässig und in Echtzeit zu korrigieren.

Fehler sind unausweichlich. Sie begleiten unser alltägliches Leben: Man macht sie beim Autofahren, Kochen oder Kommunizieren. Auch im professionellen Kontext begegnet man ihnen, sei es in der Bildverarbeitung oder bei Rechenaufgaben. Fehler auszubessern und sie möglichst selten eintreten zu lassen, ist unabdingbar, damit Geräten funktionieren – aber auch unsere Gesellschaft als Ganzes.

Glücklicherweise sind die meisten Systeme nicht auf exakte Präzision angewiesen. Man kann beispielsweise eine leicht zerkratzte DVD abspielen, und QR-Codes bleiben lesbar, selbst wenn sie unscharf oder verzerrt sind. Daten, die Raumsonden im All aufnehmen, legen hunderte Millionen Kilometer zur Erde zurück und erscheinen trotzdem erstaunlich scharf auf unseren Bildschirmen. All das ist dank ausgeklügelter Korrekturmethoden möglich, die inzwischen zu den wichtigsten Konzepten der Informationstechnologie zählen. Fehler sind zwar unvermeidlich, aber behebbar.

In den letzten Jahren ist die Fehlerkorrektur durch den Aufstieg der Quantencomputer wieder in den Fokus der wissenschaftlichen Aufmerksamkeit gerückt. Indem die neuartigen Maschinen die Gesetze der Quantenphysik nutzen, können sie einige Probleme lösen, die für klassische Computer nicht zu bewältigen sind. Das eröffnet enorme Möglichkeiten in nahezu allen Anwendungsbereichen – von der Medikamentenherstellung bis zu Verkehrssimulationen. Allerdings sind die Geräte extrem anfällig: Es können Fehler auftreten, die gewöhnlichen Rechnern völlig fremd sind. Dadurch scheitern herkömmliche Korrekturverfahren. Fachleute entwickeln deshalb neue Methoden, um die künftigen Geräte zuverlässig zum Laufen zu bringen.

Dieser Aufgabe gehe ich derzeit bei dem US-amerikanischen Technologieunternehmen IBM nach, das bereits große Fortschritte auf dem Gebiet gemacht hat. Zuvor habe ich als Physikerin das Verhalten von Quantenmaterialien theoretisch erforscht, etwa das Phänomen der Supraleitung. Damals wusste ich noch nicht, dass mich das zur Quanteninformatik führen würde. Denn Quantencomputer galten lange als unerreichbarer Zukunftstraum.

Obwohl der Physiker Paul Benioff vom Argonne National Laboratory in Illinois bereits 1980 eine Methode vorgeschlagen hatte, um solche Geräte zu entwickeln, dauerte es fast zwei Jahrzehnte, bis sich der Plan umsetzen ließ. Und erst 2007 – weitere zehn Jahre später – konnte man die grundlegende Informationseinheit realisieren, die aktuellen Geräten von IBM, Google und anderen Herstellern zu Grunde liegt: das supraleitende Transmon-Qubit. Damit waren Forscherinnen und Forscher wie ich, die sich mit Supraleitung auskannten, plötzlich gefragt. Das führte mich letztlich zu IBM. Dort versuche ich, Quantenberechnungen zu verbessern, indem ich unter anderem erforsche, wie man Fehler erkennen und beheben kann.

Die Recheneinheiten von Quantencomputern unterscheiden sich grundlegend von klassischen Bits in gewöhnlichen Rechnern. Denn Qubits sind quantenmechanische Objekte, das heißt, sie haben sowohl teilchen- als auch wellenartige Eigenschaften. Das erlaubt ihnen, miteinander zu interferieren, genau wie Licht- oder Wasserwellen. Während Bits also Berechnungen durchführen, indem sie Nullen in Einsen oder umgekehrt verwandeln, besitzen Qubits viel mehr Möglichkeiten, um logische Operationen umzusetzen. Dank dieser Fähigkeiten könnten Quantencomputer in der Lage sein, bestimmte Algorithmen effizient auszuführen, an denen gewöhnliche Rechner scheitern.

Ein weiterer Vorteil ist, dass man Qubits miteinander verschränken kann. Dieses Quantenphänomen verbindet Objekte derart, dass sie sich – selbst über große Distanzen – unmittelbar beeinflussen. Zwei verschränkte Elektronen können zum Beispiel einen Spin (eine Art Drehimpuls) haben, der immer entgegengesetzt ausgerichtet ist: Wenn der Spin des einen nach oben zeigt, deutet der des anderen zwangsweise hinab. Wegen ihrer Quantennatur ist ihr Zustand vor einer Messung nicht eindeutig. Das heißt, der Spin der Elektronen wird mit einer gewissen Wahrscheinlichkeit nach oben oder nach unten ausgerichtet sein, wenn man sie detektiert; man kann das Ergebnis aber nicht mit Sicherheit vorhersagen.

Bits versus Qubits | Quantencomputer nutzen die Regeln der Quantenmechanik, um die Fähigkeiten klassischer Rechner zu übertreffen. Qubits können sich in überlagerten Zuständen befinden. Die Verschränkung führt dazu, dass die Informationseinheiten untrennbar miteinander verbunden sind. Wenn man zwei verschränkte Teilchen hat und sie einzeln misst, erhält man zufällige Ergebnisse. Doch betrachtet man beide als Einheit, hängt der Zustand des einen von dem des anderen ab. Verschränkte Qubits enthalten mehr Information als die Objekte separat.

Schickt man eines der Teilchen durch ein Messgerät (wodurch die Ausrichtung seines Spins festgelegt wird), ist durch die Verschränkung automatisch auch der Spin des zweiten Elektrons bestimmt. Indem man Qubits auf diese Weise miteinander verknüpft, kann man enorme Mengen an Informationen speichern – viel mehr als mit der gleichen Anzahl klassischer Bits. Solche erstaunlichen Eigenschaften eröffnen ein breites Spektrum möglicher Anwendungen: Durch derartige Geräte ließen sich natürliche Phänomene wesentlich schneller simulieren, ebenso neue Materialien erforschen und entwickeln, das maschinelle Lernen verbessern, um verborgene Merkmale in Daten aufzudecken, oder nach energieeffizienten Katalysatoren für industrielle chemische Prozesse suchen.

Informationen kopieren, um sie vor Fehlern zu schützen

Allerdings müssten Quantencomputer für viele dieser Aufgaben Milliarden von logischen Operationen, so genannte Gatter, auf hunderten bis tausenden Informationseinheiten ausführen. Diese Gatter können beispielsweise den Wert eines Qubits umkehren, also eine Null in eine Eins verwandeln und umgekehrt. Damit die Berechnungen zuverlässig sind, dürfen die Rechner höchstens einen Fehler pro Milliarde Gatter machen. Die besten heutigen Maschinen verrechnen sich jedoch durchschnittlich bei jeder tausendsten Operation. Angesichts der hohen technischen Anforderungen befürchteten Fachleute bis Anfang der 1990er Jahre, dass Quantencomputer eine theoretische Kuriosität bleiben würden, ohne wirklichen praktischen Nutzen.

Doch das Blatt wendete sich im Jahr 1995, als der Mathematiker Peter Shor von den Bell Laboratories in New Jersey und der Physiker Andrew Steane von der University of Oxford unabhängig voneinander die Quantenfehlerkorrektur entwickelten. Die zwei Wissenschaftler haben einen Ansatz gefunden, um die Information eines einzelnen Qubits auf mehrere physikalische Einheiten zu verteilen.

Das war damals bahnbrechend, denn klassische Korrekturverfahren fußen auf Redundanz: Man muss die Daten vervielfachen – was mit Quanteninformationen nicht möglich ist. Mit ihren Ideen boten die zwei Forscher eine Möglichkeit, Methoden für klassische Rechner auf Quantencomputer zu übertragen.

Möchte man eine Nachricht über einen verrauschten Kanal senden, besteht die einfachste Technik zur Fehlerkorrektur darin, den Inhalt zu vervielfältigen. Zum Beispiel kann man statt einer 0 die Zahlenfolge 000 übermitteln und 1 durch 111 ersetzen. Wenn ein Computer also 010 ausliest, erkennt er, dass sich vermutlich ein Fehler eingeschlichen hat, und interpretiert die Folge als den Wert 0. Diese Methode funktioniert aber nur, solange die Fehlerrate gering ist. Wenn sich bei dem Beispiel mehr als eine Kopie des Bits verändert, deutet der Rechner das Signal falsch. Die Hersteller klassischer Computer gestalten daher die Hardware so zuverlässig wie möglich und fügen genügend Sicherungskopien hinzu, um die Wahrscheinlichkeit auftretender Fehler minimal zu halten.

Diese Methode kann man allerdings nicht ohne Weiteres auf Quantencomputer übertragen. Eine Schwierigkeit besteht darin, dass sich die Informationen von Quantensystemen nicht vervielfältigen lassen. Nachvollziehen lässt sich das über die heisenbergsche Unschärferelation, die besagt, dass man niemals alle Eigenschaften eines Quantenteilchens gleichzeitig beliebig genau bestimmen kann, etwa Ort und Geschwindigkeit. Könnte man die Quanteninformation eines einzelnen Teilchens auf zwei Teilchen verteilen, dann wäre man aber in der Lage, die Geschwindigkeit des einen und die Position des anderen extrem genau zu messen. Deshalb sind eine solche Kopien nicht möglich.

Das ermöglicht zwar eine sichere Kommunikation, macht die Fehlerkorrektur aber umso schwerer. Eine weitere Schwierigkeit besteht darin, dass man Qubits während einer Berechnung messen muss, wenn man einen Fehler aufdecken und beheben möchte. Das kann allerdings den überlagerten Zustand zerstören, der für die Berechnung nötig ist.

Ein drittes Hindernis stellen die möglichen Fehler dar, die in Quantencomputern auftreten können: Sie unterscheiden sich von jenen in herkömmlichen Rechnern, in denen es lediglich »Bit-Flips« gibt, also die Verwandlung einer Eins in eine Null oder umgekehrt. Durch ihren wellenartigen Charakter können Qubits zusätzlich eine veränderte Phase erhalten (sie entsprechen dann einem anderen Punkt auf der Kugeloberfläche), was sich etwa in ihrem Vorzeichen bei einer Berechnung bemerkbar macht.

Quanten-Schaltkreise

Um mit all diesen Herausforderungen umzugehen, haben Shor und Steane vorgeschlagen, nicht die Quanteninformation direkt abzufragen, sondern durch geschickte Messungen lediglich zu prüfen, ob ein Fehler aufgetreten ist. Dafür braucht man »Helferqubits«: Es ist zwar unmöglich, Informationen von einem Quantenobjekt auf ein anderes zu kopieren – aber wie die beiden Forscher herausfanden, lässt sich die Information durchaus auf ein System verschränkter Teilchen verteilen. Indem man die Helferqubits mit den eigentlichen Qubits (so genannten Datenqubits) verschränkt, wirkt sich das Fehler verursachende Rauschen auf alle Einheiten gleichermaßen aus. Durch mehrere Messungen lässt sich ermitteln, welche Fehler entstanden sind, ohne das betreffende System zu stören.

Phasenübergänge als Analogie aus der klassischen Physik

Ob diese Technik erfolgreich ist, hängt wie bei der klassischen Fehlerkorrektur von der Art des Rauschens ab. Die häufigste Fehlerquelle in Quantencomputern ist der Kontakt mit der Umgebung. Wenn die Informationseinheiten beispielsweise durch Temperaturschwankungen oder Vibrationen gestört werden, können sie wie bei einer Messung ihren überlagerten Zustand verlieren und liefern dadurch falsche Ergebnisse. Damit die von Shor und Steane entworfene Korrektur funktioniert, muss die Fehlerrate kleiner sein als ein bestimmter Wert. Unterhalb dieses Schwellenwerts lassen sich Fehler beheben.

Oberhalb der Schwelle erzeugt die Hardware allerdings schneller Fehlkalkulationen, als man sie korrigieren kann. Aus mathematischer Sicht lässt sich der Übergang von korrekten zu unzuverlässigen Ergebnissen abhängig von der Fehlerrate als Phasenübergang verstehen: von einem geordneten zu einem ungeordneten Zustand. Als theoretische Festkörperphysikerin habe ich mich den größten Teil meiner Karriere mit Phasenübergängen in quantenmechanischen Systemen beschäftigt, weshalb mich diese Eigenschaft von Quantencomputern natürlich fasziniert hat.

Mit meinem Team suche ich nach weiteren Möglichkeiten, die Fehlerkorrektur zu verbessern, damit die Geräte mit höheren Fehlerraten, einer größeren Fehlervielfalt und den Einschränkungen durch ihre Hardware zurechtkommen. Dabei haben wir nach Codes gesucht (die genaue Anordnung der Qubits und die zu entwerfenden Gatter), mit denen sich sinnvolle Berechnungen durchführen lassen.

Zu den beliebtesten Ansätzen zählen aktuell »topologische Quantencodes«. Die zu Grunde liegende Idee lieferte 1982 der Nobelpreisträger Frank Wilczek vom Massachusetts Institute of Technology, als er eine völlig neue Art von Teilchen in die theoretische Physik einführte, so genannte Anyonen. Alle bisher bekannten Elementarteilchen gehören nämlich einer von zwei Familien an, den »materieartigen« wie Elektronen und Quarks, die stets einen halbzahligen Spin besitzen, sowie den »kräftevermittelnden« Partikeln wie Photonen und Gluonen, die einen ganzzahligen Spin haben. Im Gegensatz dazu könnten Anyonen diesen beiden Kategorien entkommen – und einen Spin mit einer beliebigen Bruchzahl aufweisen. Das verleiht ihnen ungewöhnliche Eigenschaften: So kann man beispielsweise nachvollziehen, ob man mehrere Anyonen neu angeordnet hat; es wirkt, als hätten die Teilchen ein Gedächtnis.

Teilchenfamilien | Während Bosonen dazu neigen, sich zu sammeln, meiden Fermionen sich. Anyonen hingegen besitzen eine Art Gedächtnis, wodurch sich nachvollziehen lässt, wie sie sich durch Raum und Zeit bewegen.

Zwar kann ein Anyon nicht als Elementarteilchen in der Natur vorkommen, wohl aber in Festkörpern auftreten, in Form eines »Quasiteilchens«. Dabei handelt es sich um Anregungen, die sich wie ein einzelnes Teilchen verhalten und dementsprechend beschreiben lassen, allerdings aus zahlreichen wechselwirkenden Teilchen bestehen. Man kann es sich wie eine La-Ola-Welle in einem Stadion vorstellen, die eigentlich aus unzähligen sich hebenden und senkenden Armen besteht. Ebenso bewirken die starken Kräfte zwischen den Elektronen in einem Festkörper, dass sie unmöglichen Teilchen wie einem Anyon ähneln.

In seiner Veröffentlichung warnte Wilczek davor, dass praktische Anwendungen von Anyonen noch in weiter Ferne lägen. Doch schon bald entdeckten Physikerinnen und Physiker, dass die vorhergesagten Quasiteilchen gar nicht so abstrakt sind wie anfangs befürchtet. Unter anderem erkannte Alexei Kitaev vom California Institute of Technology, dass man Anyonen nutzen könnte, um Quantenberechnungen theoretisch zu formulieren. Wie er herausfand, lässt sich ein Vielteilchensystem mit den ungewöhnlichen Exoten verwenden, um Fehler in Quantencomputern aufzuspüren und anschließend zu korrigieren.

Anyonen zum Aufspüren von Fehlern

Damit das gelingt, muss man sich ein rechteckiges Gitter vorstellen, in dem Qubits angeordnet sind. Kitaev hat den Aufbau des Systems so gewählt, dass der Grundzustand (also der mit der niedrigsten Energie) der Situation entspricht, bei der die Qubits fehlerfrei ihre Berechnungen durchführen. Das geniale an dieser Idee ist, dass sich ein Fehler automatisch bemerkbar macht: Er führt zu einer Anregung im System, die wie ein neues Teilchenpaar wirkt: Es entstehen zwei Anyonen.

Natürlich poppen diese Teilchen nicht wirklich aus dem Nichts auf, sondern es sind die ursprünglichen Qubits, die deren Verhalten übernehmen. Die Anyonen wandern dann durch das Gitter, bis sie aufeinandertreffen und sich dadurch vernichten. Auch hier bleiben die Bestandteile des Gitters bestehen, aber das System geht in seinen Grundzustand über. Der große Vorteil an Kitaevs Idee: In den meisten Fällen führt das Verschwinden dazu, dass der Fehler behoben ist. Damit wurden topologische Codes schnell zum bevorzugten Ansatz, um Quanteninformationen zu schützen.

Fehler korrigierende Codes | Um Quantenalgorithmen vor Fehlern zu schützen, verwendet man verschiedene Arten von Qubits und koppelt sie auf geeignete Weise miteinander. Das kommt einem kristallinen Aufbau gleich, wie er in der Festkörperphysik untersucht wird.

Zwei bekannte Beispiele für Umsetzungen von Kitaevs Modell sind der Oberflächencode und der Farbcode. Ersteren haben Kitaev und mein IBM-Kollege Sergey Bravyi entwickelt. Darin wechseln sich die für die Berechnung relevanten Datenqubits und Helferqubits auf einem zweidimensionalen quadratischen Gitter ab, wie schwarze und weiße Felder auf einem Schachbrett. Aus theoretischer Sicht ist der Aufbau nicht wirklich kompliziert, aber er lässt sich nicht leicht in die Praxis umsetzen. Um die Schwierigkeiten nachzuvollziehen, muss man über die technischen Details Bescheid wissen.

Die Qubits, die wir bei IBM verbauen, heißen Transmonen. Sie bestehen aus einem elektrischen Schaltkreis aus einem supraleitenden Draht, den oszillierende Ströme durchlaufen. Der Leiter hat allerdings eine kleine Lücke, die mit einem isolierenden Material gefüllt ist. Die Elektronen können diese mit einer gewissen Wahrscheinlichkeit überwinden (also hindurch tunneln) und bestimmen damit die Ladung des Qubits – was wiederum dem Informationswert null und eins entspricht.

Um mit dem Bauteil zu rechnen, werden elektrische Impulse im Mikrowellenbereich angewendet. Dabei stellt man die Transmonen so her, dass jedes eine eigene Frequenz besitzt, auf das es reagiert. Das erlaubt es, sie einzeln anzusprechen. Allerdings kann die übermittelte Frequenz vom eingestellten Wert abweichen oder sich mit anderen Pulsen überschneiden. Somit kann ein Signal, das ein bestimmtes Qubit ansteuern soll, eine benachbarte Informationseinheit beeinflussen. Das dichte Gitter des Oberflächencodes, bei dem jedes Transmon mit vier weiteren verbunden ist, ruft häufig solche Fehler hervor.

Honigwaben | Da eine rechteckige Anordnung von Qubits zu Problemen führt, untersuchen Fachleute auch kompliziertere Gitter.

Darum haben verbinden wir die Qubits mit weniger Nachbarn, zum Beispiel indem wir ein Honigwabengitter nutzen. Wir haben es das »schwere Sechseck«-Layout genannt. Der Aufbau ähnelt damit eher einem Spielbrett der »Siedler von Catan« als dem ursprünglich angedachten Schachbrett. Tatsächlich war unser Versuch erfolgreich: Das neue Gitter reduziert wie erwartet die Frequenzkollisionen. Doch nun standen wir vor einer neuen Herausforderung.

Aus physikalischer Sicht macht es einen großen Unterschied, ob Teilchen in einem rechteckigen oder sechseckigen Gitter angeordnet sind. Das hexagonale System verhält sich ganz anders als das von Kitaev beschriebene Modell. Wir brauchten also einen neuen Fehlerkorrekturcode, der auf unseren Aufbau zugeschnitten ist. Das heißt, wir mussten die Kopplungen der Qubits und die Gatter bestimmen, um auch mit diesem Aufbau Fehler aufzudecken und zu berichtigen.

Uns ist es glücklicherweise gelungen, einen solchen theoretischen Ansatz zu finden, den »schweren Sechseckcode«. Er kombiniert Ideen des Oberflächencodes mit einem anderen etablierten Verfahren, dem Bacon-Shor-Code. Da es nun weniger Verbindungen gibt, brauchen wir neben den Daten- und Helferqubits eine zusätzliche Informationseinheit, so genannte Vermittlerqubits. Nur mit ihnen lässt sich feststellen, welche Art von Fehler auftritt. Das macht die Schaltkreise komplexer. Wie sich herausstellt, muss die Fehlerrate etwas niedriger als zuvor ausfallen, damit eine Berechnung erfolgreich verläuft.

Allerdings haben Codes, bei denen Qubits nur mit ihren nächsten Nachbarn verbunden sind, einen bedeutenden Nachteil. Soll die Fehlerrate kleiner ausfallen, muss man zwangsweise einen größeren Code entwickeln, der mehr Transmonen enthält. Das erfordert mehr physische Hardware, um die gleiche Datenmenge darzustellen – was wiederum fehleranfälliger ist.

Um diesem Teufelskreis zu entgehen, gibt es zwei Möglichkeiten. Entweder man findet sich mit den Nachteilen – den zusätzlichen Qubits und Gattern – als Kosten einer einfacheren Architektur ab. Oder man sucht nach besseren Codes. Zum Beispiel könnte man Verbindungen über die nächsten Nachbarn hinweg zulassen, um mehr logische Qubits durch weniger Transmonen zu codieren, oder man verwendet einen drei- oder höherdimensionalen Aufbau. Unser Team geht beiden Optionen nach.

Nicht nur Qubits müssen geschützt werden

Leider reicht es nicht aus, bloß die gespeicherten Qubits vor Fehlern zu schützen. Auch die Gatter, also die Rechenoperationen, mit denen man die Informationseinheiten bearbeitet, müssen robust sein. Um das zu erreichen, muss man zunächst herausfinden, welche Gatter in einem System enthalten sind. Eine entscheidende Eigenschaft von Quantencomputern ist, dass sie alle möglichen Berechnungen ausführen können – wie gewöhnliche Rechner auch. Und wie sich herausstellt, braucht man dafür zwei verschiedene Arten von Gattern.

Oft wird behauptet, das Besondere an Quantencomputern seien die Überlagerung und die Verschränkung, aber das stimmt so nicht ganz

Die erste Gruppe, die so genannten transversalen Gatter, lässt sich leicht gegen Fehler schützen. Um solche Operationen zu verstehen, muss man zwischen zwei »logischen« und »physikalischen« Qubits unterscheiden. Das logische Qubit ist die Informationseinheit, das aus theoretischer Sicht die Berechnungen durchführt. Dieses besteht aber in Wirklichkeit aus mehreren physikalischen Qubits (etwa die Transmonen), die es codieren und schützen. Wenn ein fehlerkorrigiertes transversales Gatter den Zustand eines einzigen logischen Qubits verändert (etwa das X-Gatter, das den Wert des Qubits umkehrt), dann werden Operationen an allen physikalischen Qubits ausgeführt, aus denen das logische besteht. Beeinflusst das Gatter hingegen zwei logische Qubits, werden die zu Grunde liegenden Bauteile gepaart und unabhängig von den anderen manipuliert. Daher bleibt die Fehlerrate immer gleich, und somit unter Kontrolle. Das ist eine nützliche Eigenschaft, die verhindert, dass sich große Rechnungen nicht mehr bewältigen lassen.

Allerdings haben nicht alle Quantengatter diesen Vorteil. Man kann mathematisch beweisen, dass es unmöglich ist, jede erdenkliche Quantenberechnung ausschließlich mit transversalen Gattern durchzuführen. Das ist ein wichtiges Merkmal von Quantencomputern. Denn bestimmte Operationen, die auf einer bestimmten Klasse von transversalen Gattern (so genannte Clifford-Gatter) beruhen, lassen sich effizient durch klassische Computer simulieren. Damit würden die auf der Quantenmechanik basierenden Maschinen also keinen Vorteil bringen, wenn sie nur Clifford-Gatter nutzen würden. Oft wird behauptet, das Besondere an Quantencomputern seien die Überlagerung und die Verschränkung, aber das stimmt so nicht ganz. Nicht alle derartigen Zustände sind außergewöhnlich. Was die neuartigen Geräte wirklich einzigartig macht, sind Nicht-Clifford-Gatter, die in der Regel nicht transversal sind und sich nur schwer durch klassische Rechner simulieren lassen.

Magische Zustände als Lösung

Die beste Möglichkeit, um fehlergeschützte Nicht-Clifford-Gatter zu realisieren, ist die »magische Zustandsdestillation«, die Kitaev und Bravyi entwickelt haben. Sie erlaubt es, universelle Quantencomputer nur mit Clifford-Gattern umzusetzen, indem man »reine magische Zustände« benutzt. Die komplizierten Nicht-Clifford-Gatter werden dabei durch Qubits ersetzt, die sich in einem bestimmten Zustand befinden. Diese codieren dann die Wirkung der Nicht-Clifford-Operationen.

Damit das gelingt, dürfen die magischen Zustände nur wenige Fehler aufweisen. Kitaev und Bravyi haben gezeigt, wie man aus vielen verrauschten Zuständen fehlerfreie Exemplare destillieren kann. Dadurch verringert sich zwar ihre Anzahl, aber die übrig gebliebenen erfüllen die benötigten Anforderungen. Für diesen Vorgang braucht man lediglich (bereits fehlerkorrigierte) Clifford-Gatter und spezielle Messungen. Das Destillationsverfahren kann man oft wiederholen, um aus den zahlreichen verrauschten Zuständen einen reinen magischen Zustand zu erhalten.

Sobald man diesen geschaffen hat, lässt er sich durch Quantenteleportation mit dem entsprechenden Datenqubit verbinden. Dabei nimmt Letzteres den Zustand an, den eigentlich das Nicht-Clifford-Gatter erzeugt hätte.

So clever der Ansatz auch sein mag, er ist leider extrem aufwändig. Bei einem gewöhnlichen Oberflächencode verschlingt die Destillation 99 Prozent der gesamten Rechenleistung. Deswegen benötigen wir dringend neue Methoden, um diesen Vorgang zu verbessern – oder zu umgehen. Bis das gelungen ist, kann man andere Ideen vorantreiben. Anstatt zu versuchen, einen Quantenschaltkreis zu entwerfen, der Fehler in Echtzeit korrigiert (was zusätzliche Qubits erfordert), kann man einen herkömmlichen Computer nutzen, der lernt, den Beitrag des Rauschens aus Experimenten vorherzusagen und aus den Ergebnissen herauszurechnen. Dafür sind keine weiteren Qubits nötig, aber man muss die Quantenschaltkreise häufig durchlaufen lassen. Außerdem kann die klassische Verarbeitung lange dauern.

Diese Methode hat jedoch Grenzen, denn sie funktioniert nicht für alle Algorithmen. Deshalb greift man meist auf eine Kombination aus klassischer Herangehensweise und zuvor beschriebener Fehlerkorrektur (wie Oberflächencodes) zurück.

Unser Forschungsteam bei IBM hat gezeigt, dass sich auf diese Weise universelle Quantenschaltkreise ohne magische Zustandsdestillation simulieren lassen: Man wendet die Korrekturcodes auf Clifford-Gatter an und simuliert die Nicht-Clifford-Gatter mit gewöhnlichen Rechnern, um deren Fehlkalkulationen auszubessern. Damit könnten bereits kleinere Quantencomputer herkömmliche Geräte übertreffen. Meine Kolleginnen und Kollegen schätzen, dass sich mit dieser speziellen Kombination Schaltkreise simulieren lassen, die bis zu 40-mal mehr Nicht-Clifford-Gatter enthalten, als ein klassischer Computer verarbeiten kann.

Um weiter voranzukommen und effizientere Methoden zu entwickeln, müssen sich Theoretiker und Ingenieure austauschen und Hardware sowie Modelle aufeinander abstimmen. Modellierer können dann die Schaltkreise und Fehlerkorrekturcodes an die Technik anpassen; umgekehrt sollten Ingenieure die Systeme so aufbereiten, dass sie den Anforderungen der Korrekturcodes entsprechen. Der Erfolg von Quantencomputern hängt davon ab, ob beide Welten erfolgreich miteinander kommunizieren.

Bisher ist die Zusammenarbeit gelungen. Die Quanteninformatik hat sich in den letzten Jahren von einem Bereich, in dem man höchstens ein oder zwei Qubits erzeugen konnte, zu einem Gebiet entwickelt, in dem nun jede Person über eine Cloud auf dutzende Qubits zugreifen kann. Aber es liegt ein weiter Weg vor uns.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

Altman, E. et al.: Quantum simulators: Architectures and opportunities. Physical Review X Quantum 2, 2021

Bravyi, S. et al.: Mitigating measurement errors in multiqubit experiments. Physical Review A 103, 2021

Bravyi, S., Kitaev, A.: Universal quantum computation with ideal Clifford gates and noisy ancillas. Physical Review A 71, 2005

Eastin, B., Knill, E.: Restrictions on transversal encoded quantum gate sets. Physical Review Letters 102, 2009

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.