Quanten voraus!
Die Vereinten Nationen rufen für 2025 das Internationale Jahr der Quantenwissenschaft und -technologie aus.
Die Vereinten Nationen rufen für 2025 das Internationale Jahr der Quantenwissenschaft und -technologie aus.
Der Nobelpreis für Chemie zeichnet grundlegende Arbeiten zur Entdeckung und Synthese von Quantenpunkten aus.
Quantenpunkte bestehen aus zehn bis zehntausend Atomen eines Halbleitermaterials und tragen wegen ihrer Größe auch die Bezeichnung Nanokristalle. Sie existieren eingebettet in Festkörpern sowie als Kolloide in Lösung. Kolloidale Quantenpunkte sind an der Oberfläche mit Molekülen belegt; da sie sehr viel kleiner als die Wellenlänge sichtbaren Lichts sind, erscheinen sie als transparente farbige Lösungen. Die Nanokristalle lassen sich gezielt mit einer Methode herstellen, die auf den Arbeiten des jüngsten der diesjährigen Chemie-Nobelpreisträger, Moungi G. Bawendi, beruht. Bei der Entdeckung und ersten Synthese von Quantenpunkten haben Louis E. Brus und Aleksei I. Ekimov entscheidende Beiträge geleistet. Allen dreien möchten wir mit diesem Beitrag herzlich gratulieren.
Wie so oft in der Geschichte der Wissenschaft geht auch die Entdeckung chemisch hergestellter Quantenpunkte nicht auf eine Person zurück, sondern wurde an verschiedenen Orten unabhängig voneinander vorangetrieben. So untersuchte Aleksei Ekimov in den frühen 1980er-Jahren die Wachstumskinetik von Kupferchlorid-Mikrokristallen in Glasschmelzen. Dabei beobachtete er, dass die Gläser je nach den Bedingungen, unter denen die Reaktion ablief, unterschiedliche Anteile des ultravioletten und sichtbaren Licht absorbierten. 1981 zeigte er, dass sich dieser Effekt auf im Glas eingeschlossene, verschieden große Nanokristalle aus Kupferchlorid zurückführen lässt [1]. Leider waren die winzigen Partikel nicht frei zugänglich und die Absorptionswellenlänge verschob sich nur um wenige Nanometer. Dennoch gelang es, die Größe der Nanokristalle eindeutig mittels Lichtstreuexperimenten nachzuweisen und damit den Größenquantisierungseffekt in Quantenpunkten erstmalig zu zeigen.
Zeitgleich fanden jenseits des eisernen Vorhangs in der Gruppe des 2012 verstorbenen Arnim Henglein Experimente statt, um photogenerierte Elektronen in kleinen Halbleiterpartikeln für Reduktions- und Oxidationsprozesse zu nutzen. Am Hahn-Meitner-Institut in West-Berlin, das heute zum Helmholtz-Zentrum Berlin gehört, gelang die Synthese sehr kleiner Metall- und Halbleiterpartikel mit unterschiedlichen kolloidchemischen Ansätzen. Das ursprüngliche Ziel war es, durch eine geringe Größe der Partikel die Diffusionswege der Ladungsträger an die Oberfläche der Teilchen zu verkürzen. Das sollte die photochemischen Prozesse, die zum Beispiel zur photokatalytischen Wasserspaltung führen können, möglichst effektiv gestalten. Im Rahmen dieser Entwicklungen entstanden Synthesen, wie die Reaktion gelöster Cadmiumsalze mit Sulfiden bei sehr hohen pH-Werten, um die Reaktivität der Ausgangsverbindungen zu erhöhen und damit möglichst kleine Partikel herzustellen. Dabei wunderten sich Henglein und seine Gruppe, dass die Reaktion nicht zu einer für Cadmiumsulfid charakteristischen Gelbfärbung führte, sondern teilweise farblose Lösungen hervorbrachte. Erst spektroskopische Untersuchungen zeigten, dass sich die Absorptionswellenlänge aus dem sichtbaren in den UV-Bereich verschoben hatte, da für solch kleine, kolloidal gelöste Kristalle die Energie des sichtbaren Lichts nicht mehr ausreicht, um die Ladungsträger optisch anzuregen. (...)
Die Anfänge des Quantencomputings reichen rund 30 Jahre zurück, aber um dessen volles Potenzial auszuschöpfen, sind noch etliche Forschungsanstrengungen notwendig.
Durch den Mitte der 1990er-Jahre vorgestellten Shor-Algorithmus zur Primfaktorzerlegung erhielt das theoretische Feld des Quantenrechnens auch außerhalb der Wissenschaft Aufmerksamkeit. Dies führte zu einer kreativen Explosion des Forschungsfeldes. Etwa 30 Jahre später können erste Quantenchips simple Quantenalgorithmen ausführen. Um hierfür praktische Anwendungen zu finden, bedarf es weiterhin gründlicher Forschung. In diesem Artikel zeichnen wir die Entwicklungen dieses spannenden Feldes nach und zeigen vielversprechende Forschungsrichtungen auf.
Alan Turing schrieb Weltgeschichte als der erste Forscher, dem es gelang, mit „Turochamp“ ein Computerprogramm für Schach zu schreiben und gleichzeitig die Grundlagen der künstlichen Intelligenz zu schaffen. Sein Team war es auch, das die Enigma-Verschlüsselungsmaschine der Nationalsozialisten im zweiten Weltkrieg knackte, mit den bekannten, erheblichen Konsequenzen. Für die Informatik war Turing, nach dem heute das Nobelpreis-Äquivalent für Informatik benannt ist, eine wissenschaftliche Lichtgestalt als jener, der die Grundlagen für moderne Computer legte: Die A-Maschine, wie er sie nannte, war ein mit Papier und Bleistift konzipierter, einfachst möglicher Computer, der dennoch beliebige rechnerische Aufgaben bewältigen konnte. Diese Turing-Maschine war weniger eine echte Rechenmaschine, sondern eher ein paradigmatisches Gedankenmodell eines Computers: Sie umfasst einen verschiebbaren Schreib- und Lesekopf, ein Programm und einen Speicher, der durch ein Band repräsentiert wird. Auch wenn dieses Modell einfach anmuten sollte: Das Rechnermodell selbst der modernsten klassischen Superrechner lässt sich auf solche Turing-Maschinen zurückführen. (...)
Die Physik des Baus von Quantencomputern
Quantencomputing und die dort postulierten Algorithmen versprechen eine qualitative Beschleunigung bestimmter Rechnungen. Dies gelingt aber nur mit entsprechenden physikalischen Geräten. Um diese zu bauen, muss es gelingen, etwas aus der Quantenphysik zu steuern und zu kontrollieren.
Quanteneffekte in nutzbaren Geräten sind schon gang und gäbe, z. B. in Transistoren, Lasern oder Kernspintomographen. Allerdings sind dies Effekte von Ensembles vieler Quantensysteme, etwa aller Elektronen, welche die Bandstrukturlandschaft des Transistors durchlaufen. Die Spannung an den Klemmen des Transistors ist weiterhin eine klassische Variable. In Quantentechnologien der zweiten Generation wie dem Quantencomputer werden auch einzelne Quantensysteme technisch angesprochen und der Informationsaustauch ist ebenfalls quantenphysikalisch.
Die Entwicklung und der Bau solcher Quantengeräte finden in verschiedenen Plattformen statt, wie die Artikel von Stefan Filipp und Gian Salis beziehungsweise von Wolfram Pernice und Co-Autoren in diesem Heft zeigen. Hier geht es darum, Gemeinsamkeiten im Verständnis der Physik dieser Plattformen zu diskutieren. Ausgangspunkt sollen diejenigen Kriterien sein, die David DiVincenzo um die Jahrtausendwende als Leitfaden für potenzielle Quantencomputingplattformen formulierte [1]. Sie sind bewusst unquantitativ gehalten, da sich die quantitativen Kriterien mit dem wissenschaftlichen Fortschritt verschoben haben. Sie stellen folgende Anforderungen an eine Plattform für einen Quantencomputer: (...)
Neuronale Netze helfen dabei, quantenmechanische Effekte von Wasser zu entschlüsseln.
Kurze Laserpulse oder starke Licht-Materie-Kopplung können die Eigenschaften von Quantenmaterialien gezielt verändern.
Licht kann in sogenannter Quantenmaterie Phänomene wie Topologie, Supraleitung oder Metall-Isolator-Übergänge induzieren. Daraus entstehen an der Schnittstelle von Festkörperphysik und Quantenoptik neue Forschungsfelder, in denen statt starker Laserpulse nun starke Licht-Materie-Kopplung dazu dient, langlebige Zustände mit neuen Funktionalitäten zu erzeugen.
Aus wertlosen Metallen Gold zu machen – das ist ein alter Menschheitstraum. Ausgehend von den Alchemisten des Mittelalters kristallisierte sich daraus die wissenschaftliche Methode von Versuch und Irrtum, wodurch im 17. und 18. Jahrhundert die moderne Chemie aus der Alchemie entstand. Im 21. Jahrhundert hat das Gold seinen Status zugunsten neuer „Quantenmaterialien“ eingebüßt, die einmal in grünen Technologien oder Quantenanwendungen zum Einsatz kommen sollen. Quantenmaterialien sind Festkörper, in denen es durch elektronische Korrelationen, Topologie oder beides interessante Phasendiagramme gibt. Diese Phasendiagramme enthalten thermische Materialzustände, die durch thermodynamische Variablen wie Druck, chemische Zusammensetzung oder Temperatur zu kontrollieren sind.
Eine weitere Möglichkeit, um Materialzustände zu ändern, bieten Laserpulse. Im Gegensatz zu den Gleichgewichtsphasendiagrammen bringt eine Laseranregung das Material jedoch weg vom thermischen Gleichgewicht, da der Laser dem System Energie zuführt. Die Idee von lichtgetriebenen Materialzuständen besteht nun darin, dass diese zusätzliche Energie auf kurzen Zeitskalen (1 Femtosekunde = 10–15 Sekunden) nicht das Material aufheizt, also die Temperatur erhöht, sondern etwa kohärent dessen elektronische Struktur verändert. Dadurch lassen sich neue Zustände stabilisieren, die im Gleichgewicht nicht existieren oder die sonst instabil wären. (...)
Die App QuantumVR erlaubt es, spielerisch Quantengatter zu erkunden und kleine Quantenalgorithmen zu erstellen.
Im Projekt QuantumVR entsteht ein VR-Spiel für den Einstieg in die gatterbasierte Quantenprogrammierung zum Einsatz bei Outreach-Events. Bei dem Spiel mit Escape-Room-Elementen in virtueller Realität (VR) gilt es, kurze Quantenalgorithmen durch Platzieren einfacher Quantengatter zu lösen und damit Tiere zu befreien – ganz ohne Vorkenntnisse in Quantenmechanik.
Die Quantentechnologie gilt als eine der künftigen Schlüsseltechnologien [1]. Die Entwicklung der entsprechenden Hardware wird auf nationaler und europäischer Ebene mit großen Förderprogrammen vorangetrieben. Um die neuen Technologien tatsächlich nutzen zu können, ist es aber essenziell, auch an die Ausbildung der benötigten Fachkräfte zu denken. Bereits heute ist ein gravierender Fachkräftemangel zu spüren, der sich über die kommenden Jahre voraussichtlich weiter verschärfen wird. Umso wichtiger ist es, das Thema Quantentechnologien in der Ausbildung voranzutreiben – und zwar nicht nur an den Universitäten, etwa durch neue Masterstudiengänge. Die motivierende Wirkung, die von der aktuellen Berichterstattung über die Entwicklung von Quantencomputern in den Medien ausgeht, kann helfen, um Schülerinnen und Schüler gezielt anzusprechen und mit dieser Thematik das Interesse für ein Physikstudium zu wecken. International wurde in den letzten Jahren bereits eine Reihe spielerischer Ansätze zu Quantentechnologien entwickelt [2].
Darüber hinaus muss es ein Anliegen der Wissenschaft sein, interessierten Menschen zu ermöglichen, die Grundzüge der Technologie und ihre Folgen zu verstehen, einzuordnen und zu bewerten. Nur so ist es möglich, zu einer reflektierten gesellschaftlichen Debatte über das Zukunftspotenzial der Quantentechnologien zu gelangen. Dies eröffnet zudem die Möglichkeit, eventuellen Vorbehalten gegenüber dieser neuen Technologie zu begegnen. Das Projekt QuantumVR, das im Rahmen der BMBF-Initiative „Quantum aktiv“ gefördert wurde, setzt hier an und will einen spielerischen Zugang zu dieser Thematik bieten [3]. Ein Virtual-Reality-Spiel soll das Interesse an Quantentechnologien wecken und erste Einblicke in Quantenprogrammierung geben. Die spielende Person erstellt mit vorgegebenen Quantengattern einfache Quantenalgorithmen, um einen vorgegebenen Zielzustand zu erreichen. (...)
Defektstrukturen bei spontaner Symmetriebrechung – auch in Quantensystemen
Alain Aspect, John Clauser und Anton Zeilinger haben mit ihren Experimenten wesentliche Grundlagen für die Quantentechnologie gelegt.
Alain Aspect, John F. Clauser und Anton Zeilinger teilen sich den diesjährigen Physik-Nobelpreis für ihre „Experimente mit verschränkten Photonen, welche die Verletzung der Bell-Ungleichungen nachwiesen und den Weg für die Quanteninformationswissenschaft ebneten“.
Erwin Schrödinger prägte mit „Verschränkung“ den Begriff für ein Phänomen der Quantenphysik, das auch heute noch tiefgehende Fragen aufwirft, aber gleichzeitig zu einer der wichtigsten Ressourcen der Quantentechnologie geworden ist [1]. Albert Einstein wies 1935 zusammen mit Boris Podolsky and Nathan Rosen anhand ihres berühmten Gedankenexperiments [2] darauf hin, dass der lokal-realistische Standpunkt der klassischen Physik bei der Verschränkung infrage gestellt wird. Ein möglicher Ausweg wäre es, den Teilchen individuelle Eigenschaften zuzuschreiben, die in „verborgenen Variablen“ definiert sind. Diese Variablen würden das Verhalten bei Messungen steuern und damit den quantenmechanischen Zufall vortäuschen. Allerdings – darauf hat Einstein bereits hingewiesen – wäre für die Beschreibung verschränkter Paare auch eine „spukhafte Fernwirkung“ notwendig, um die Information schneller als mit Lichtgeschwindigkeit zu übermitteln.
John F. Clauser und Stuart Freedman (1944 – 2012) befassten sich Anfang der 1970er-Jahre an der UC Berkeley mit Bells Ideen. In ihrem Experiment [4] werden jeweils die Photonenpaare, die bei einer Zerfallskaskade im Kalzium entstanden, auf einen Polarisator geleitet (parallele Glasplatten unter Brewster-Winkel), der nur eine bestimmte (lineare) Polarisationsrichtung durchlässt. Damit gelang Clauser und Freedman ein Analogon zum Stern-Gerlach-Experiment, mit dem sie zeigen konnten, dass die gemessenen Korrelationen gegen Freedmans Variante der Bell-Ungleichung verstießen und somit einen starken Hinweis dafür lieferten, dass sich die Quantenmechanik nicht durch eine lokale Theorie mit versteckten Variablen (engl.: local hidden-variable (LHV) theory) ersetzen ließ. (...)
Den Weg aus den reinen Gedankenexperimenten wies in den 1960er-Jahren der irische Theoretiker John Stewart Bell [3]. Er entwickelte die nach ihm benannte mathematische Ungleichung, die besagt, dass bei Vorhandensein verborgener Variablen und ohne spukhafte Fernwirkungen die Korrelation zwischen den Ergebnissen von Messungen an einer großen Zahl von Teilchenpaaren niemals einen bestimmten Wert überschreitet. Die Quantenmechanik sagt jedoch voraus, dass die Messergebnisse von verschränkten Teilchenpaaren gegen die Bellsche Ungleichung verstoßen und es daher erlauben, die Gültigkeit lokal-realistischer Konzepte zu überprüfen.
In der Quantenmechanik können Messungen an einem System ein anderes steuern.
In der Quantenmechanik lassen sich Teilchen an verschiedenen Orten durch eine gemeinsame Wellenfunktion beschreiben. In den 1930er-Jahren bemerkte Erwin Schrödinger, dass dies die Möglichkeit bietet, ein Quantensystem durch Messungen an einem weit entfernten weiteren System zu steuern. Seine Ideen waren jedoch lange vergessen und wurden erst in den letzten 15 Jahren wieder aufgegriffen. Mittlerweile ist es aber gelungen, die theoretisch vorhergesagten Effekte in Experimenten zu beobachten. Das Phänomen dieser Quantenkorrelation hängt eng mit anderen Konzepten wie der gemeinsamen Durchführbarkeit von Messungen zusammen und ist wichtig für Anwendungen wie die Quantenkryptographie.
Wenn zwei Tatverdächtige, Alice und Bob, bei einem Polizeiverhör dieselbe Geschichte erzählen, kann es dafür verschiedene Gründe geben. Alice kann von der Version Bobs erfahren haben und ihre Darstellung des Tatgeschehens danach ausgerichtet haben. Es kann aber auch eine gemeinsame Ursache für die Übereinstimmung geben. Im besten Fall erzählen Alice und Bob nichts als die Wahrheit. Die gemeinsame Ursache kann aber auch darin bestehen, dass sie sich im Vorhinein über eine Darstellung abgesprochen haben. Wenn die Verhöre gleichzeitig an verschiedenen Orten stattfinden, liegt eine gemeinsame Ursache nahe.
Was folgt, wenn die Antworten in dem Verhör auf eine gemeinsame Ursache zurückgehen? Dazu betrachten wir ein einfaches Modell: Alice und Bob bekommen Fragen gestellt (Waren Sie zur Tatzeit zuhause?) und geben eine von mehreren Antworten (ja oder nein). Etwas abstrakter lassen sich die Fragen an Alice durch einen Index x und die Antworten durch einen Index a beschreiben – bei Bob entsprechend durch y und b. Dann kann man sich die Wahrscheinlichkeiten anschauen, dass Alice a antwortet und Bob b, wenn Alice die Frage x und Bob die Frage y gestellt. (...)
Ein Blick auf Quantenfluktuationen und ihre Konsequenzen
Fluktuationen sind allgegenwärtig. Sie bilden einen fundamentalen Baustein der Quantenmechanik und sind verantwortlich für die unterschiedlichsten Phänomene von der Biologie bis zur Kosmologie. So existieren fern jeder klassischen Intuition Kräfte zwischen nichtmagnetischen und elektrisch neutralen Objekten. Diese Kräfte entstehen durch Quantenfluktuationen wie aus dem Nichts und gewinnen immer mehr an Bedeutung für verschiedene Zukunftstechnologien.
Mit pantha rhei (Alles fließt) werden manchmal die Lehren des griechischen Philosphen Heraklit zusammengefasst. Sie entsprechen dem Verständnis von kausaler Verknüpfung sowie einem ständigen Wandel in der Natur. Viele Jahrhunderte später hat die Quantenmechanik unser Weltbild revolutioniert. Die nicht-intuitiven Resultate der Quantentheorie bieten Raum für Spekulationen und werden bis heute debattiert. Dazu zählt die Erkenntnis, dass jede physikalische Größe eine intrinsische Unsicherheit mit sich trägt. Solche Quantenfluktuationen verbinden jede Observable mit statistischem Rauschen. Heute wissen wir: Alles rauscht. Was sich wie eine theoretische Kuriosität anhört, hat weitreichende Implikationen im gesamten Spektrum der Physik. Denn Quantenfluktuationen sorgen für messbare Effekte mit wachsender Bedeutung für moderne Nano- und Quantentechnologien.
Mathematisch gesehen sind Quantenfluktuationen die Konsequenz der nicht-kommutativen Struktur der Quantenmechanik, also der Tatsache, dass die Reihenfolge von Messungen wichtig ist. So können wir niemals „gleichzeitig“ die Position x und den Impuls p eines Körpers exakt bestimmen. Als Konsequenz ergibt sich die Unschärferelation von Heisenberg. Für eine eindimensionale Dynamik gilt Δx Δp ≥ ħ/2, wobei ħ = h/(2π) die reduzierte Planck-Konstante ist. Je kleiner die Unschärfe im Ort Δx, desto ungenauer wird der Impuls Δp – und umgekehrt. (...)
Sogenannte Graph-Zustände bieten Vorteile für quantentechnologische Anwendungen.
Dieser Artikel stellt Quantenanwendungen vor, die auf verschränkten Zuständen mit mehr als zwei Teilchen basieren. Dabei liegt der Fokus auf Graph-Zuständen. Diese lassen sich in allen physikalischen Systemen herstellen, in denen man einzelne Qubits manipulieren und verschränken kann. Beispiele sind Photonen, Atome, Ionen oder supraleitende Qubits. Wir konzentrieren uns auf photonische Systeme, da photonische Graph-Zustände Quantenkommunikation über weite Strecken, Quanteninternet oder -computing realisieren können.
Verschränkung spielt eine zentrale Rolle in den Quantentechnologien: In der Quantenkommunikation erlaubt sie es, geheime Schlüssel auszutauschen, im Quantencomputing sind verschränkende Gatteroperationen essenziell. Besonders deutlich zeigen sich die speziellen Eigenschaften der Quantenmechanik an verschränkten Zuständen mit zwei Teilchen [1]. Eine Messung an einem Teilchen kann den Zustand des Partnerteilchens instantan und unabhängig von der Entfernung verändern.
Aber auch die Verschränkung von mehr als zwei Teilchen wird durch die sich stetig entwickelnden Quantentechnologien immer wichtiger. Besonders die Herstellung sogenannter GraphZustände beschäftigt aktuell viele experimentelle Forschungsgruppen. Ein GraphZustand ist definiert durch einen mathematischen Graphen. Ein solcher besitzt Knoten und Kanten, welche die Quantenbits sowie deren Verschränkung darstellen. Das Quantenbit (kurz Qubit) ist die fundamentale Einheit der Quanteninformationsverarbeitung (...)
Die Ausbreitung von Quanteninformation in komplexen Vielteilchensystemen hängt eng mit klassischem Chaos zusammen.
Chaotisches Verhalten ist dadurch charakterisiert, dass sich kleinste Änderungen der Anfangsbedingungen eines nichtlinearen Systems exponentiell auf dessen Entwicklung auswirken – ein Phänomen, das auch als Schmetterlingseffekt bekannt ist. Ein Analogon dazu tritt auch in Quanten-Vielteilchensystemen auf und lässt sich mit besonderen Kommutatoren beschreiben, die aus der Festkörpertheorie bekannt sind.
In einer wenig beachteten, aber weit vorausschauenden Arbeit wies Albert Einstein 1917 darauf hin, dass die dem Bohrschen Atommodell zugrunde liegende Bohr-Sommerfeldsche Quantisierung der elliptischen Elektronenbahnen für nicht-integrable Systeme auf gravierende konzeptionelle Schwierigkeiten stößt [1]. In der Tat scheiterte diese „alte Atomtheorie“, die sich beim Wasserstoffatom als so erfolgreich erwiesen hatte, vor einem Jahrhundert beim Versuch, sie auf kompliziertere atomare und molekulare Systeme zu verallgemeinern.
Es dauerte weitere fünfzig Jahre, bis Martin Gutzwiller in einer Serie bahnbrechender Arbeiten eine methodische Brücke zwischen der klassischen und der Quantenmechanik nicht-integrabler Systeme schlug [2].1) Genauer gesagt verknüpfte er die chaotische Dynamik eines Teilchens in einem klassischen System mit dem Energieniveau-Spektrum des dazu korrespondierenden Quantensystems. Während Bohrs Zugang auf adhoc-Annahmen beruhte, entwickelte Gutzwiller eine konsistente semiklassische Theorie. In deren Rahmen ließ sich zum einen der Erfolg der alten Atomtheorie für integrable Systeme mit stabilen klassischen Bahnen einordnen; zum anderen aber trug sie dem allgemeineren nicht-integrablen Fall adäquat Rechnung, dass sich die klassische Bewegung häufig nichtlinear chaotisch vollzieht. (...)
Maßgeschneiderte Quantensysteme erlauben es, komplexere Quantenmessungen zu realisieren und in der Quantentechnologie zu nutzen.
Die Messung einzelner Teilchen erlaubt es, charakteristische Vorhersagen der Quantenmechanik wie das Auftreten von Quantensprüngen in Quantenmessungen zu beobachten. Heute stehen kontrollierbare Quantensysteme zur Verfügung, in denen sich verschiedene Aspekte und Arten von Quantenmessungen gezielt realisieren und über weite Parameterbereiche maßschneidern lassen. Komplexere Messungen eröffnen die Möglichkeit, Fehler in Quantencomputern zu detektieren und zu korrigieren.
Messungen an individuellen Quantensystemen erfolgten erstmals in den 1980er-Jahren in Experimenten zum Nachweis diskreter Quantensprünge. Neuere Experimente erlauben es, über die kohärente Kopplung an Hilfssysteme allgemeinere Messungen zu implementieren und hierdurch die zeitliche Entwicklung der zu messenden Systeme zu untersuchen und zu beeinflussen.
Wir beginnen mit einer kurzen, abstrakten Einführung in einen Messapparat, der eine quantenmechanische Messung ermöglicht. Folgende Einschränkungen und Eigenschaften ergeben sich aus der Quantenmechanik:
Diese Axiome haben weitreichende Implikationen, insbesondere im Zusammenhang mit dem Gewinn und Verlust von Information. Im Allgemeinen ist der Gewinn von Information (der Erhalt eines Messergebnisses) mit der Kopplung an ein klassisches System verbunden. Dieser Vorgang ruft fast immer Dekohärenz hervor, die quantenmechanische Eigenschaften wie Verschränkung zerstört, die nicht im Rahmen klassischer Physik zu erklären sind. (...)
Über die Linearität der Quantenmechanik und Atom-Interferometer
Das Superpositionsprinzip ist ein Eckpfeiler der Quantenmechanik und folgt aus der Linearität der Schrödinger-Gleichung. Damit eng verbunden ist die Beschreibung der klassischen Mechanik durch die Hamilton-Jacobi-Gleichung, die aber nichtlinear ist. In diesem Artikel motiviere ich aus einer mathematischen Identität [1] eine nichtlineare Wellengleichung für die klassische statistische Mechanik und die lineare Schrödinger-Gleichung der Quantenmechanik.
Die Linearität der Quantenmechanik ermöglicht Materiewellen-Interferometer, die als hochempfindliche Quantensensoren für Rotation und Beschleunigung dienen [2]. Eine Pionierleistung auf diesem Gebiet war die Messung der Phasenverschiebung in einem Neutronen-Interferometer [3, 4] aufgrund der Gravitation. Heute benutzt man dazu kalte Atome, insbesondere Bose-Einstein-Kondensate, die mithilfe von Lichtstrahlen aufgeteilt und wieder zusammengeführt werden. Im Folgenden zeige ich, dass die Phasenverschiebung in einem Kasevich-Chu-Atom-Interferometer [5] von der Nichtvertauschbarkeit [6] zweier Quantendynamiken und insbesondere dem Kommutator zwischen den Operatoren für Ort und Impuls herrührt.
Schon 1927 bemerkte Earle Hesse Kennard [7], dass eine Wellenfunktion in einem linearen Potential eine globale Phase entwickelt, die proportional zur dritten Potenz der Zeit ist. Die erste direkte Messung dieser Kennard-Phase erfolgte in einem Analogsystem der Quantenmechanik, nämlich bei Tiefwasserwellen [8, 9]. Mit diesem Effekt lässt sich auch ein neuartiges Atom-Interferometer mit einer verbesserten Skalierung entwickeln [10]. Während beim Kasevich-Chu-Interferometer die Phasenverschiebung quadratisch in der Zeit ist, die das Atom im Interferometer verbringt, wächst diese in einem Interferometer basierend auf der Kennard-Phase mit der dritten Potenz an. Der experimentelle Nachweis dieser Änderung des Potenzgesetzes gelang mit einem Stern-Gerlach-Interferometer [11, 12]. (...)
Ein neuer Fachverband der DPG bündelt Kompetenzen sektionsübergreifend.
Die PT-Symmetrie könnte eine wichtige Rolle in der Quanteninformationstheorie spielen.
Die Quantenmechanik ermöglicht faszinierende wie auch ungewöhnliche Phänomene. Kürzlich zeigten mathematische Überlegungen, dass es noch ein völlig neues Regime dieser Theorie jenseits dessen gibt, was bisher in den Laboratorien gemessen wurde. Diese neue Quantenmechanik würde nicht nur zu einem neuen Verständnis vieler physikalischer Prozesse führen, sondern wäre auch die Basis für revolutionäre Anwendungen.
Der Begriff Quant – vom lateinischen Wort „quantum“ (zu Deutsch: „wie viel“ oder „wie groß“) – wurde vermutlich durch Robert J. Mayer geprägt. Er nutzte ihn, um den ersten Hauptsatz der Thermodynamik zu beschreiben. Die Idee eines Energiequants – ohne es so zu nennen – stammt aus der bahnbrechenden Arbeit von Max Planck von 1900, in der er seine berühmte Formel zur Berechnung des elektromagnetischen Spektrums eines schwarzen Strahlers angibt [1]. Der zentrale Gedanke dieser Arbeit war der Ausdruck ε = h∙f, in dem die Frequenz f eines abstrakten Pendels proportional zu einem Energieelement ε (jenem Energiequant) ist. Die Naturkonstante h (die ihre Bezeichnung der schlichten Abkürzung für Hilfsvariable verdankt) ist heute als Plancksches Wirkungsquantum bekannt. Die Existenz dieser Konstanten besagt, dass sich Energie nicht kontinuierlich verändern kann, sondern mindestens in Sprüngen der Größe ε. Solche Quantensprünge beschreiben also die kleinstmögliche Änderung der Energie, insbesondere der von Atomen. Daher ist es mehr als erstaunlich, dass man in der heutigen Alltagssprache als Quantensprung einen Fortschritt bezeichnet, der eine Entwicklung innerhalb kürzester Zeit ein sehr großes Stück voranbringt. (...)
Nach der experimentellen Realisierung topologischer Phasen gilt es, topologische Qubits zu konstruieren und gezielt auszulesen
Quantencomputer könnten bisher hoffnungslos schwierige Probleme lösen. Realisiert werden sie als ein System von Qubits. Hierbei ist aber ein Kompromiss nötig: Als Speicher sollte ein Qubit möglichst wenig wechselwirken, zum Ausführen von Operationen dagegen stark. Einen Ausweg aus diesem Dilemma verspricht das topologische Quantenrechnen, das auf dem gezielten Austausch nicht-abelscher Anyonen basiert.
Beispiele für Probleme, die sich mittels Quantencomputer lösen lassen könnten, finden sich in der Simulation komplexer quantenmechanischer Systeme aus Chemie oder Materialwissenschaften, im Entschlüsseln kryptographischer Verfahren oder in drastischen Verbesserungen der künstlichen Intelligenz. Ein Quantencomputer benötigt eine Ansammlung von Quanten-Bits (Qubits), die einen quantenmechanischen Zustand speichern und mit sehr hoher Genauigkeit manipulieren können. Was sich leicht anhören mag, stellt sich in der experimentellen Realität als monumentale Herausforderung dar. Nach mehr als 20 Jahren aktiver Forschung in akademischen und industriellen Laboren auf der ganzen Welt sind bisher nur kleine Testsysteme verfügbar.
In der Alltagserfahrung treten die Eigenschaften individueller Quantensysteme − Superposition verschiedener Zustände, Kollaps der Wellenfunktion und Verschränkung − nicht in Erscheinung. Grund dafür ist Dekohärenz: Koppelt ein quantenmechanisches System auch nur schwach an seine Umgebung, werden die Superposition und Verschränkung quantenmechanischer Zustände zerstört. Das System verhält sich effektiv klassisch...
Wie sich quantenmechanische Eigenschaften als Ressource beschreiben lassen
Quantenmechanische Effekte, die lange rätselhaft oder paradox erschienen, finden mittlerweile Anwendung in Quanteninformationsprotokollen und Quantentechnologien. Fundamentale Eigenschaften wie Kohärenz oder Verschränkung lassen sich als Ressource verstehen. So genannte Ressourcentheorien sollen mit einer einheitlichen Sichtweise helfen, die quantenmechanischen Ressourcen zu quantifizieren und ihre Erzeugung oder Umwandlung zu beschreiben.
Seit der Entstehung der Quantenmechanik bieten ihre Eigenschaften Anlass für kontroverse Diskussionen, insbesondere im Zusammenhang mit der Verschränkung (EPR-Paradoxon, „spukhafte Fernwirkung). Die Sicht auf solche Phänomene hat sich spätestens mit der Entwicklung von Quanteninformationsprotokollen in den 1990er-Jahren geändert: Verschränkung gilt nun als Ressource, mit der sich beispielsweise Quantenteleportation durchführen und Kommunikation sicher verschlüsseln lässt bzw. die Algorithmen ermöglicht, die schneller als jeder bekannte klassische Algorithmus sind. Auch die Reinheit oder Kohärenz von Quantenzuständen spielt hier eine wichtige Rolle.
Welches Protokoll welche Ressource benötigt, ist individuell zu klären. In diesem Zusammenhang stellen sich übergreifende Fragen: Wie beschreibt man eine Ressource quantitativ? Wie verändert sie sich unter relevanten Transformationen des Quantensystems? Welche Relationen gibt es zwischen verschiedenen Ressourcen, die im selben Quantenzustand vorliegen? Diese abstrakt klingenden Fragen wirken sich direkt auf die experimentelle Umsetzung aus: Quantentechnologien bringen nur dann einen Vorteil gegenüber klassischen Technologien, wenn gewisse Schwellenwerte der Ressourcen erreicht werden, die sich wiederum in konkrete Performance-Anforderungen an Bauelemente von Quantenschaltkreisen und -netzwerken übersetzen lassen...
Dipolare langreichweitige Wechselwirkungen lassen sich mit ultrakalten Quantengasen gezielt untersuchen und zur Quantensimulation nutzen.
Seit zwei Jahrzehnten spielen ultrakalte Gase aus neutralen Atomen eine wichtige Rolle als Werkzeug in vielen Teilgebieten der Physik. Insbesondere können sie als Quantensimulator dienen, um komplexe Modelle aus der Festkörperphysik nachzubilden. Gase mit langreichweitigen Wechselwirkungen bieten dabei neue Einblicke und überraschende Erkenntnisse.
Ultrakalte Gase aus neutralen Atomen sind außerordentliche Quantensysteme – mittlerweile ist es in Experimenten möglich, einzelne Atome zu untersuchen und zu manipulieren [1]. Das eröffnet vielfältige Anwendungen in Vielteilchenphysik und nichtlinearer Physik, für Präzisionsmessungen und Materiewellen-Interferometrie [2]. Insbesondere als Quantensimulator haben ultrakalte Gase in den letzten Jahren von sich reden gemacht. Dabei bilden die präzise kontrollierbaren Quantengase ein sehr komplexes physikalisches System nach und simulieren dessen Verhalten in einem Experiment. Das gelang beispielsweise vor kurzem erstmals für das Heisenberg-Modell, das den Magnetismus in bestimmten Festkörpern beschreibt. Für große Teilchenzahlen können selbst die besten klassischen Supercomputer das Heisenberg-Modell nur näherungsweise berechnen – und das wird auf absehbare Zeit so bleiben.
Bei der Simulation ist die außerordentliche Kontrolle entscheidend, die über die Wechselwirkung zwischen den Atomen ausgeübt werden kann. Meist lässt sich die a priori komplizierte Wechselwirkung durch eine einfache Kontaktwechselwirkung beschreiben [3]. Diese ist kurzreichweitig und isotrop, sodass sich die Atome näherungsweise wie elastisch stoßende Billardkugeln verhalten (Infokasten). Die Kontaktwechselwirkung sorgt für viele faszinierende Phänomene und liegt beispielsweise der Suprafluidität von Bose-Einstein-Kondensaten und der Bildung von Cooper-Paaren in Gasen fermionischer Atome zugrunde. Allerdings beruhen viele interessante Phänomene schon in der klassischen Physik auf langreichweitigen oder anisotropen Wechselwirkungen. Beispiele sind Ferroflüssigkeiten aus magnetischen Nanopartikeln, das Verhalten von Flüssigkristallen oder die Gravitation. Auch in der Quantenmechanik vermutet man, dass solche Wechselwirkungen essenziell sind, beispielsweise für die Grundlagen des Magnetismus oder die Hochtemperatur-Supraleitung...
Mit mesoskopischen Quantenschaltkreisen lassen sich theoretische Vorhersagen zu kollektiven Phänomenen in quantenmechanischen Vielteilchensystemen testen.
Das interessante Phänomen der Vielteilchenlokalisierung verhindert, dass quantenmechanische Vielteilchensysteme das thermodynamische Gleichgewicht erreichen können.
Unordnung in wechselwirkenden Quantensystemen bricht die Translationsinvarianz und zerstört somit Symmetrien. In der Beschreibung der klassischen Statistischen Mechanik ist dann chaotisches Verhalten zu erwarten. Erstaunlicherweise hat starke Unordnung in quantenmechanischen Vielteilchensystemen aber den gegenteiligen Effekt: Von einem Anfangszustand entfernt sich das System nur wenig. Selbst nach beliebig langer Zeit bleibt lokale und damit messbare Information über den Anfangszustand erhalten: Das System erreicht kein thermodynamisches Gleichgewicht.
Jeder hat sicher schon beobachtet, wie Eiswürfel in einer Flüssigkeit schmelzen und sich nach einiger Zeit ein Gleichgewichtszustand einstellt, der durch die Temperatur der Flüssigkeit charakterisiert ist (Abb. 1). Dieses dynamische Erreichen des thermodynamischen Gleichgewichts nennt man Thermalisierung. Ludwig Boltzmann erkannte, dass dieses Gleichgewicht durch einen Zustand maximaler Entropie gegeben ist – unter Einhaltung vorliegender Randbedingungen. Dieser Zustand stellt sich durch dynamisches Chaos ein, bei dem kleinste Unterschiede in den Anfangsbedingungen zu komplett unterschiedlichen Endzuständen führen.
Doch kann es Thermalisierung auch in isolierten Quantensystemen geben? Diese Frage ist von großer Bedeutung für das grundlegende Verständnis der Thermodynamik von Quantensystemen in Abwesenheit eines Wärmebades sowie für die Erklärung von Experimenten mit ultrakalten Quantengasen [2]. Diese sind exzellent von der Umgebung isoliert und eignen sich aufgrund bedeutender Fortschritte in der experimentellen Kontrolle sehr gut, um theoretische Vorhersagen zu überprüfen...
Wie die Quanteninformationstheorie bei der Beschreibung von Quantenvielteilchensystemen hilft.
Quantenvielteilchensysteme weisen eine Vielzahl interessanter Phänomene auf, sind aber aufgrund ihrer komplexen Verschränkung sehr schwer zu modellieren. Ideen aus der Quanteninformationstheorie können uns helfen, solche Systeme mit Hilfe von Quantensimulatoren zu simulieren sowie basierend auf ihrer Verschränkungsstruktur effizient zu beschreiben.
Der enorme experimentelle Fortschritt in den letzten fünfzig Jahren hat viele grundlegende Tests der Quantenmechanik ermöglicht. Dies hat die Tür zu neuen Anwendungen aufgestoßen, insbesondere im Zusammenhang mit der Verarbeitung und Übertragung von Information. Quantencomputer und -kommunikationssysteme könnten das Gebiet der Informationsverarbeitung und Kryptographie revolutionieren, auch wenn die Konstruktion skalierbarer Geräte trotz erster Prototypen eine große Herausforderung darstellt. Mit diesen Bemühungen geht die Entwicklung einer Quantentheorie der Information einher, die beschreibt, wie sich die quantenmechanischen Gesetze nutzen lassen, um Daten effizient zu verarbeiten und zu übertragen. Zudem stellt diese Theorie eine formale Sprache zur Verfügung, um beliebige Quantensysteme zu beschreiben und viele Phänomene auf eine einheitliche Art zu verstehen. Diese Sprache hat sich über den Bereich der Informationsverarbeitung hinaus entwickelt und hält mittlerweile auch in andere Bereiche Einzug, wie die Atom-, Molekül- und Festkörperphysik, Optik und sogar Hochenergiephysik und Kosmologie.
In drei unabhängigen Experimenten gelang es, die Vielteilchenverschränkung in Bose-Einstein-Kondensaten nachzuweisen.
Erstmals ließen sich dynamische Quantenphasenübergänge experimentell beobachten.
Mit Licht lassen sich einzelne Phononen erzeugen − ein wichtiger Schritt auf dem Weg zu optomechanischen Quantentechnologien.
Experimente mit riesigen Rydberg-Atomen erlauben die präzise Kontrolle der dipolaren Wechselwirkung über mesoskopische Distanzen.
Erstmals gelang es, die Effekte einer gekrümmten Raumzeit entlang der Ausdehnung einer quantenmechanischen Wellenfunktion zu beobachten.
Ein neuer Zugang zur Quantenphysik für den Schulunterricht − moderne Forschung im Visier
Die Quantenphysik verdient wegen ihrer enormen Bedeutung einen Platz im Schulunterricht. Eine auf den Erkenntnissen der Quanteninformationstheorie basierende Sicht erlaubt Schülerinnen und Schülern einen konzeptionell einfachen und gleichzeitig modernen Zugang zur Quantenphysik. Dieser ermöglicht auch die Diskussion von modernen Forschungsthemen und Zukunftstechnologien.
Die Quantenmechanik beschreibt die mikroskopische Welt mit bisher unerreichter Genauigkeit. Sie bildet zudem die Basis für moderne technische Anwendungen wie Laser oder Kernspintomograph. Der Formalismus ist sehr gut ausgearbeitet und verstanden, doch noch immer bestehen zahlreiche offene Fragen.
Die Grundlagen der Quantenphysik sind bereits seit geraumer Zeit Bestandteil des Lehrplans der Sekundarstufe 2. Die behandelten Themen orientieren sich dabei stark an historischen Aspekten. In den letzten beiden Jahrzehnten hat allerdings ein Wandel in der quantenphysikalischen Forschung stattgefunden. Anwendungsmöglichkeiten sind gegenüber fundamentalen Fragen in den Vordergrund gerückt. Dank eindrucksvoller Fortschritte bei der Kontrolle von Quantensystemen ist es heutzutage möglich, einzelne Atome und Photonen gezielt zu manipulieren und damit für Anwendungen zu nutzen [1]. Sogar die Beobachtung von Quanteneffekten bei immer größeren, beinahe makroskopischen Systemen wird diskutiert und vorangetrieben [2]. Technologien wie Teleportation, Quantenkryptographie, Quanteninternet oder Quantencomputer haben das Potenzial, unsere Gesellschaft nachhaltig zu beeinflussen. Diese Entwicklungen bieten auch neue Möglichkeiten für den Schulunterricht und erlauben zukünftigen Generationen, Einblicke in die moderne Physik zu geben und auf die wichtige Rolle von Naturwissenschaft und Technik in unserer Gesellschaft hinzuweisen...
Die offizielle Webseite des von der UNESCO am 7. Juni 2024 ausgerufenen Internationalen Jahres der Quantenwissenschaften und -technologien.
Auf dieser Seite bündelt die Deutsche Physikalische Gesellschaft die vielfältigen Aktivitäten zum Quantenjahr 2025 in Deutschland und lädt zum Mitmachen ein, um die die Rolle der Quantenphysik im Licht ihrer Ergebnisse, ihrer Zukunftsoptionen und ihrer Herkunft in all ihren Facetten zu beleuchten.