Quantencomputer auf dem Weg zu weniger Fehlern
Innsbrucker Forscher zeigen einen Weg, wie Quantencomputer toleranter mit unvermeidbaren Fehlern umgehen können
Wer mit einem Intel-Pentium-Prozessor aus dem Jahr 1994 den Quotienten 1:824633702441 berechnete, erhielt ein Ergebnis, das knapp neben dem wahren Wert lag. Der als "Pentium-Bug" bekannte Fehler des von Intel damals mit großem Werbetamtam eingeführten Prozessors trat nur bei ganz bestimmten Zahlen auf. Die Computer lagen dann um ein Hunderttausendstel bis ein Zehnmillionstel daneben.
Statistisch sollte laut Berechnungen der Firma IBM der Fehler einmal alle 28 Tage auftreten. Intel selbst behauptete sogar, bei der Nutzung von Tabellenkalkulationssoftware wie Excel sei er nur alle 27.000 Jahre zu fürchten.
Intel musste damals trotzdem alle betroffenen Prozessoren austauschen, was am Ende 475 Millionen US-Dollar gekostet haben soll. Man muss das Unternehmen, das sich lange gegen den Austausch sträubte, deshalb nicht bedauern, immerhin entsprachen die vielen Millionen nur der Hälfte des Quartalsgewinns des vierten Quartals 1994. Würde man allerdings an die heute als das "nächste große Ding" geltenden Quantencomputer ähnliche Maßstäbe setzen, stünde die Industrie von vornherein auf verlorenem Posten.
Denn Fehler gehören bei Quantencomputern zum Prinzip. Die ganze Quantenphysik ist darauf aufgebaut. Sie liefert stets statistische Aussagen über die relative Wahrscheinlichkeit bestimmter Ergebnisse bei oftmaliger Wiederholung eines Experiments. Sie weiß nicht, wo sich ein bestimmtes Elektron zum Zeitpunkt aufhält, aber sie macht wichtige Aussagen darüber, wo es sich mit welcher Wahrscheinlichkeit befindet.
Dass Quantencomputer dereinst trotzdem sehr mächtige – wenn auch nicht universelle – Maschinen sein werden, liegt an einer anderen Eigenschaft von Quantensystemen: der Überlagerung verschiedener Zustände (Superposition). Ein einzelnes Quantenbit (Qubit) enthält sämtliche Grundwerte. Führt man an ihm eine Operation aus – in der klassischen Leseweise: wendet man eine Funktion an – werden alle Grundwerte gleichzeitig in den Funktionswert überführt.
Quantenüberlegenheit ist real
Quantencomputer arbeiten also massivst parallel, was einen von konventionellen Systemen unschlagbaren Geschwindigkeitsvorteil erbringen sollte. Diese sogenannte Quantenüberlegenheit (quantum supremacy) ist bisher zwar nur für ein akademisches Problem auf echter Hardware gezeigt worden. Aber sie ist real, und es ist nur eine Frage der Zeit, bis sie auch praktisch anwendbar werden.
Wie lang diese Zeit noch sein wird, lässt sich derzeit nur schwer sagen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) schätzt, dass für einen Angriff auf 2.048-Bit-RSA-Schlüssel insgesamt 5,5*1015 Elementarschritte auf 4.098 logischen Qubits benötigt werden.
Der von Google entwickelte Sycamore-Chip, mit dem 2019 die Quantenüberlegenheit gezeigt wurde, besitzt 53 physische Qubits (zum Unterschied siehe unten). Die Forscher, die an Quantencomputern arbeiten, müssen nicht nur das generelle Prinzip umsetzen. Sie müssen ein System mit hoher Zuverlässigkeit bauen, das auftretende Fehler erkennt und korrigiert und Operationen (die Hardwareebene) und Algorithmen (die Softwareebene) möglichst fehlertolerant ausführt.
Dabei erfüllen verschiedenartige Quantensysteme, optische oder supraleitende Qbits, mechanische Quantencomputer oder auch Ionenfallen, die Erfordernisse unterschiedlich gut. Die Forscher können zwar die für das Quantenrechnen geeigneten Algorithmen hardwareunabhängig entwickeln.
Doch Fehlerkorrektur und Fehlertoleranz müssen vor allem auf der Hardwareebene gelöst werden. Von einer Fehlerwahrscheinlichkeit wie beim Pentium-Bug können die Entwickler da nur träumen, und daran wird sich auch in naher und mittlerer Zukunft nichts ändern, das ist einfach ein Problem der Quantenwelt an sich.
Aber mittlerweile kann man natürlich Fortschritte auf dem Weg zur Fehlertoleranz machen. Ein wichtiger Ansatz besteht zunächst einmal darin, physische und logische Qubits zu trennen. Die Physik ist unerbittlich. Quantenzustände zerfallen irgendwann. Die Wellenfunktion kollabiert.
Nun kann und muss man natürlich versuchen, sie möglichst langlebig zu gestalten. Aber dabei gibt es Grenzen. Hinzu kommt, dass man physische Qubits nach dem Ausführen einer Operation erst wieder neu präparieren muss. Das kostet im Vergleich zur Operation selbst enorm viel Zeit.
Etwa eine Million physikalische Qubits in 100 Tagen
Deshalb besteht der einzige Weg hier darin, mit logischen Qubits zu operieren, die von der physikalischen Hardware getrennt sind. Das ist natürlich auch mit Nachteilen verbunden, vor allem einem enormen Overhead. Um etwa auf 4.098 logische Qubits zu kommen, wird man in der Praxis einige echte Megaqubits benötigen.
Das bedeutet auch, dass die ersten leistungsfähigen Quantencomputer kaum kleiner als ein heutiges Rechenzentrum sein werden – und sicher keine Desktop-"QCs". Das BSI hat berechnet, dass -– technologischen Fortschritt vorausgesetzt – zum Brechen eines RSA-Schlüssels mit 2.048 Bit binnen 100 Tagen etwa eine Million physikalische Qubits benötigt werden. Mit der heute erreichbaren Quantenfehlerkorrektur wäre die Zahl der benötigten physikalischen Qubits sogar hundert mal so groß.
Diese Abschätzungen beruhen allerdings auf einer bestimmten Annahme des Overheads, der bei der Nutzung logischer Qubits auftritt. Hier kommt nun ein vielversprechendes Verfahren ins Spiel, das diesen Overhead deutlich verringern könnte – nach seriösen Schätzungen um einen Faktor von vier bis fünf.
Die sogenannte Gitterchirurgie operiert an logischen Qubits, die in einer Ebene angeordnet sind. Bis zu ihrer Erfindung 2011 galt für planar angeordnete logische Qubits die Einschränkung, dass sich damit nur ein einziges Informations-Qubit kodieren ließe. Damit macht die Gitterchirurgie Schluss. Sie erlaubt sämtliche Quantenoperationen, und das mit gegenüber Vorgängertechniken halbiertem Overhead.
Forschern aus Innsbruck ist es nun gelungen, diese Technik an ihrem Ionenfallen-Quantencomputer mit zehn physischen Qubits umzusetzen. Dabei konnten die Forscher zum ersten Mal zwei logische Qubits miteinander verschränken und Informationen zwischen ihnen übertragen. Eine praktische Anwendung dafür gibt es natürlich noch nicht.
Dass das BSI die Gitterchirurgie in der oben genannten (übrigens wegen des großen Überblicks sehr empfehlenswerten) Studie als eines von acht "Risiken" aufführt, die die praktische Anwendung von Quantencomputern beschleunigen könnten, scheint deshalb nun ein ganzes Stück eher berechtigt.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.