Quantencomputer: Gewissheit aus dem Zufall ziehen

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer werden mit zunehmender Größe und Komplexität undurchschaubar. Mit Methoden der mathematischen Physik ist es nun einem Team gelungen, aus zufälligen Datensequenzen konkrete Zahlen abzuleiten, die als Maßstab für die Leistungsfähigkeit eines Quantencomputersystems dienen können. An der Arbeit mit Quantencomputer, die nun in Nature communications veröffentlicht ist, waren Experten des Helmholtz-Zentrum Berlin, der Freien Universität Berlin, des Qusoft Forschungszentrum Amsterdam, der Universität Kopenhagen sowie des Technology Innovation Institute Abu Dhabi beteiligt.

Mit Quantencomputern lassen sich insbesondere Quantensysteme deutlich effizienter berechnen und zum Beispiel Probleme in der Materialforschung lösen. Je größer und komplexer jedoch Quantencomputer werden, desto weniger lassen sich die Prozesse durchschauen, die zum Ergebnis führen. Um solche Quantenoperationen zu charakterisieren und die Fähigkeiten von Quantencomputern mit der klassischen Rechenleistung bei denselben Aufgaben fair zu vergleichen, werden daher passende Werkzeuge gebraucht. Ein solches Werkzeug mit überraschenden Talenten hat nun ein Team um Prof. Jens Eisert und Ingo Roth entwickelt.

Benchmarking von Quantencomputern

Roth, der aktuell am Technology Innovation Institute in Abu Dhabi eine Gruppe aufbaut, erläutert: „Aus den Ergebnissen zufällig gewählter Experimente können wir mit mathematischen Methoden nun viele verschiedene Zahlen extrahieren, die zeigen, wie nah die Operationen im statistischen Mittel an den gewünschten Operationen sind. Damit kann man aus den gleichen Daten viel mehr lernen als zuvor. Und zwar – das ist das Entscheidende – wächst die benötigte Datenmenge nicht linear sondern nur logarithmisch.“ Dies konnte das Team sogar mathematisch beweisen. Konkret bedeutet das: Um hundertmal so viel zu lernen, werden nur doppelt so viel Daten gebraucht. Eine enorme Verbesserung.

Eisert, der eine gemeinsame Forschungsgruppe zu theoretischer Physik am Helmholtz-Zentrum Berlin und der Freien Universität Berlin leitet, sagt: „Es geht hier um das Benchmarking von Quantencomputern. Wir haben gezeigt, wie man mit randomisierten Daten solche Systeme kalibrieren kann. Das ist eine sehr wichtige Arbeit für die Entwicklung von Quantencomputern.“

arö


Das könnte Sie auch interessieren

  • Kleine Kraftpakete für ganz besonderes Licht
    Science Highlight
    27.06.2024
    Kleine Kraftpakete für ganz besonderes Licht
    Ein internationales Forschungsteam stellt in Nature Communications Physics das Funktionsprinzip einer neuen Quelle für Synchrotronstrahlung vor. Durch Steady-State-Microbunching (SSMB) sollen in Zukunft effiziente und leistungsstarke Strahlungsquellen für kohärente UV-Strahlung möglich werden. Das ist zum Beispiel für Anwendungen in der Grundlagenforschung, aber auch der Halbleiterindustrie sehr interessant.
  • Neue Methode zur Absorptionskorrektur für bessere Zahnfüllungen
    Science Highlight
    24.06.2024
    Neue Methode zur Absorptionskorrektur für bessere Zahnfüllungen
    Ein Team um Dr. Ioanna Mantouvalou hat eine Methode entwickelt, um die Verteilung von chemischen Elementen in Dentalmaterialien präziser als bisher möglich darzustellen. Die konfokale mikro-Röntgenfluoreszenzanalyse (micro-XRF) liefert dreidimensional aufgelöste Elementbilder, die Verzerrungen enthalten. Sie entstehen, wenn Röntgenstrahlen Materialien unterschiedlicher Dichte und Zusammensetzung durchdringen. Mit Mikro-CT-Daten, die detaillierte 3D-Bilder der Materialstruktur liefern, und chemischen Informationen aus Röntgenabsorptionsspektroskopie (XAS) - Experimenten im Labor (BLiX, TU Berlin) und an der Synchrotronstrahlungsquelle BESSY II haben die Forschenden das Verfahren nun verbessert.
  • Helmholtz-Institut für Polymere in Energieanwendungen (HIPOLE Jena) eröffnet
    Nachricht
    19.06.2024
    Helmholtz-Institut für Polymere in Energieanwendungen (HIPOLE Jena) eröffnet
    Am 17. Juni 2024 ist in Jena das Helmholtz-Institut für Polymere in Energieanwendungen (HIPOLE Jena) im Beisein von Wolfgang Tiefensee, Minister für Wirtschaft, Wissenschaft und Digitale Gesellschaft des Freistaates Thüringen, feierlich eröffnet worden. Das Institut wurde vom Helmholtz-Zentrum Berlin für Materialien und Energie (HZB) in Kooperation mit der Friedrich-Schiller-Universität Jena gegründet: Es widmet sich der Entwicklung nachhaltiger Polymermaterialien für Energietechnologien. Diese sollen eine Schlüsselrolle bei der Energiewende spielen und Deutschlands Ziel unterstützen, bis 2045 klimaneutral zu werden.