News: Verschränktheit gegen Beschränktheit
Und doch ist unser Gehirn einzigartig. Denn es beschäftigt sich nicht allein mit einer Aufgabe, sondern verarbeitet gleichzeitig eine Vielzahl von Eindrücken und steuert dabei noch wichtige Funktionen. Kein heutiger Rechner ist auch nur ansatzweise dazu in der Lage, die komplexen Vorgänge des Gehirns in Echtzeit zu simulieren.
Schließlich ist auch der Speicher unseres Gehirns, das Gedächtnis, ein Phänomen. Sicherlich, ab und an vergisst man etwas. Aber oftmals reicht schon ein kleiner Wink – beispielsweise das geistige Bild einer Person – und man erinnert sich an ihren Namen und Telefonnummer. Bei einem Computer würde dergleichen nicht gelingen. Die Telefonnummer eines Bekannten mag zwar richtig in der Adressverwaltung stehen, hat man aber den Nachnamen vergessen oder weiß die korrekte Schreibweise nicht mehr, dann erhält man trotz Suchfunktion keine Auskunft – die Zuordnung gelingt nicht mehr. Verliert der Computer einen Teil seiner Daten – beispielsweise durch ein fehlerhaftes Speichermedium –, so sind die darauf enthaltenen Informationen unweigerlich verloren. Die Hoffnung, dass sich der Rechner irgendwann zumindest an einen Teil erinnert, ist vergebens.
Mit der Entwicklung so genannter neuronaler Netze gelingt es mittlerweile zum Teil, die kognitiven Leistungen des Gehirns auf normalen Computern nachzuahmen. So stellt ein 1982 von John Hopfield vorgeschlagenes Modell einen Assoziativspeicher dar. Ein solches Netz ist lernfähig, da sich die Verknüpfungen einzelner, künstlicher Neuronen anpassen können. Die Informationen werden hier nicht auf einzelnen fest bestimmten Plätzen gespeichert, sondern ähnlich wie im Hirn in einem Muster. Außerdem kann das Netz auch mit unvollständigen Informationen umgehen, wie Bilderkennungssysteme auf der Basis neuronaler Netze demonstrieren. Jedoch ist der Speicherhaushalt eines solchen Hopfield-Netzes alles andere als effizient. So ist die Zahl der speicherbaren Muster nur proportional zur Zahl der Neuronen, da wäre mehr möglich.
Das dachte sich auch Carlo Trugenberger von InfoCodex und entwickelte eine Idee, wie sich solche Probleme lösen ließen. In einer theoretischen Betrachtung zeigt der Wissenschaftler, wie sich ein quantenmechanisches System aus verschränkten Teilchen sowohl eine Vielzahl von Informationsmustern merken und obendrein mit unvollständigen Informationen umgehen kann. Die Eigenschaft der Verschränktheit bedeutet, dass zwei oder mehrere Teilchen derart miteinander verbunden sind, dass schon die Messung des Zustandes eines Teilchens gleich auch die Zustände aller anderen verschränkten Partner festlegt.
Laut Trugenberger wäre die Zahl der Muster, die das quantenmechanische Gedächtnis speichern könnte, exponentiell abhängig von der Zahl der Qubits – dem quantenmechanischen Pendant zum Bit – und damit optimal. Der Mechanismus, mit dem sich nun Informationen zurücklesen lassen, funktioniert auf der Basis einer Wahrscheinlichkeitsaussage: Wenn man mehrmals den Speicher ausliest, liefert das eine Verteilung von Messergebnissen. Das Maximum der Verteilung spiegelt das vorher gespeicherte Muster wider.
Damit scheint nun auch der Speicher eines zukünftigen Quantencomputers den heutigen Rechnern einiges voraus zu haben. Doch bis es soweit ist, und der erste derartige Rechenknecht seine Arbeit verrichtet, wird es wohl noch ein Weilchen dauern, denn zur Zeit gelingt es Wissenschaftlern gerade mal, zwei bis drei Teilchen miteinander zu verschränken. Und exponentielle Speichergröße hin oder her – zwei hoch drei Qubits sind alles andere als üppig.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.