Quantencomputer bewegen sich auf einem schmalen Grat zwischen Ordnung und Unordnung – nur dann können die quantenphysikalischen Prozesse stattfinden, mit denen diese Anlagen rechnen. Doch wie nun eine Analyse mithilfe von drei verschiedenen Methoden ergeben hat, liegen einige der gängigen Quantencomputer von IBM, Google und Co gefährlich nahe an der Schwelle zum chaotischen Zusammenbruch. Das könnte bedeuten, dass nicht alle dieser auf supraleitenden Transmon-Quantenbits beruhenden Systeme ohne weiteres skalierbar sind, wie das Forschungsteam erklärt. Um einen Absturz dieser Systeme ins Chaos zu vermeiden, müsse dies schon beim Design von Qubit-Prozessoren auf den supraleitenden Plattform berücksichtigt werden.
Quantencomputer gelten als Rechner der Zukunft. Denn dank quantenphysikalischer Prozesse wie der Überlagerung und Verschränkung können sie viele Lösungsansätze gleichzeitig prüfen und so schneller sein als herkömmliche Computer. Unternehmen wie IBM, Google und andere haben bereits erste kommerziell nutzbare Quantencomputer entwickelt, auch wenn diese für die meisten Anwendungen noch zu klein sind und zu wenige Quantenbits beinhalten. Die meisten dieser Systeme beruhen auf sogenannten Transmon-Qubits. Dabei handelt es sich um virtuelle Teilchen in Form von Ladungsinseln in speziellen supraleitenden Metallspulen. Damit diese Qubits Rechenoperationen durchführen können, müssen sie einerseits während der Rechenzeit möglichst ungestört im Überlagerungszustand bleiben. Dies erfordert eine bestmögliche Abschirmung gegen Störeinflüsse von außen. Andererseits jedoch müssen sie miteinander gekoppelt werden, um Schaltkreise zu bilden.
Zwischen Kopplung und Unordnung
Damit arbeiten die gängigen Quantencomputer in einem fragilen Gleichgewicht zwischen Ordnung in Form der Kopplung zwischen den Qubits und einer Unordnung, die den einzelnen Qubits genügend Freiraum für unabhängige Fluktuationen bietet. “Der Transmon-Chip toleriert nicht nur, sondern benötigt sogar effektiv zufällige Qubit-zu-Qubit-Unvollkommenheiten”, erklärt Erstautor Christoph Berke von der Universität zu Köln. Denn die miteinander gekoppelten Quantenbits ähneln einem System gekoppelter Pendel, dessen Fluktuationen sich leicht zu unkontrollierbar großen Schwingungen mit katastrophalen Folgen aufschaukeln können. Das Prinzip dahinter ähnelt dem Effekt bei der Resonanz von Brücken: Wenn große Gruppen diese überqueren, müssen sie vermeiden, im Gleichschritt zu marschieren, weil sonst sich aufschaukelnde Resonanzschwingungen entstehen.
Auch in Quantencomputern soll eine absichtlich eingeführte Unordnung die Entstehung solcher chaotischen Resonanzfluktuationen vermeiden. Absichtlich eingeführte lokale „Verstimmungen“ verhindern eine zu starke Kopplung der Qubits und halten in Multi-Qubit-Prozessoren das fragile Gleichgewicht zwischen Ordnung und Unordnung aufrecht. Die zurzeit gängigen Quantencomputersysteme nutzen dabei unterschiedliche Methoden, um dieses Gleichgewicht zu halten. IBM nutzt eine Struktur, bei der Qubits mit gleicher Frequenz abwechselnd im Gitter platziert werden, um unerwünschte Kopplungen von Nachbar-Qubits zu verhindern. Allerdings kann es dabei trotzdem noch zu Kopplungen zum jeweils übernächsten Qubit kommen, wie Berke und sein Team erklären. Die Quantencomputer der TU Delft und von Google hingegen nutzen aktive punktuelle Störungen, um unerwünschte Resonanzen zu blockieren.
IBM-System potenziell anfälliger für Chaos
Wie gut diese verschiedenen Methoden funktionieren, haben nun Berke und seine Kollegen mithilfe von drei verschiedenen Techniken untersucht. “In unserer Studie gehen wir der Frage nach, wie zuverlässig das Prinzip ‚Stabilität durch Zufall‘ in der Praxis ist”, so Berke. Es zeigte sich zum einen, dass es schon vor dem Kollaps ins Chaos eine überraschend ausgedehnte Grauzone gibt, in der unerwünschte Resonanzen die Quantenzustände zwar schon beeinträchtigen, aber die Schwelle zum “harten Quantenchaos” noch nicht überschritten ist. Zum anderen ergaben die Tests, dass zumindest einige der industriell verfolgten Systemarchitekturen gefährlich nahe an der Instabilität sind. “Als wir die Google- mit den IBM-Chips verglichen, stellten wir fest, dass im letzteren Fall die Qubit-Zustände so weit gekoppelt sein könnten, dass kontrollierte Rechenoperationen beeinträchtigt werden können“, berichtet Berkes Kollege Simon Trebst. Das System dieser Rechnerarchitektur sei anfälliger für chaotische Fluktuationen.
Für die geplanten Erweiterung der Quantencomputer auf mehr Quantenbits könnte dies Folgen haben: “Wir würden so weit gehen, zu spekulieren, dass dieses System die Generalisierung zu größeren und zweidimensional verbundenen Array-Geometrien, wie sie für komplexere Anwendungen nötig sind, nicht tragen kann”, schreiben die Forscher. Seniorautor David DiVincenzo von der RWTH Aachen ergänzt: „Unsere Studie zeigt, wie wichtig es für Hardware-Entwickler ist, die Modellierung von Bauelementen mit modernster Quantenzufallsmethodik zu kombinieren und die ‚Chaos-Diagnose‘ als Routinebestandteil in das Design von Qubit-Prozessoren auf der supraleitenden Plattform zu integrieren.“
Quelle: Christoph Berke (Universität zu Köln) et al., Nature Communications, doi: 10.1038/s41467-022-29940-y