Am Large Hadron Collider läuft u. a. die fieberhafte Suche nach dem Higgs-Boson. (vgl. ab S. 28, Quelle: Tunnel: CERN; Kontrollraum: Peter Ginter / Edition Lammerhuber)
Physik Journal 4 / 2012
Meinung
Inhaltsverzeichnis
Aktuell
Leserbriefe
Kluft zwischen Lehrplan und Alltag
Zu: „Differenzieren, aber keine Differentialgleichung“, Dezember 2011, S. 8
High-Tech
Im Brennpunkt
Mit Licht zur Quanten-„Mechanik“
Das nichtklassische Verhalten eines nanomechanischen Resonators lässt sich durch die Messung seiner Nullpunktsfluktuationen nachweisen.
Bildung - Beruf
Karriere auf Rezept
Auch für Physiker bietet die Pharmabranche interessante Berufsperspektiven, beispielsweise im Bereich Data-Mining oder in der Entwicklung medizinischer Geräte.
Zunächst mal heißt es „Handys aus“. Kaum hat man die moderne, in blauem Glas schimmernde Pyramide auf dem Merck-Gelände betreten, wird man aufgefordert, alle elektronischen Geräte komplett auszuschalten – so streng gelten die Sicherheitsvorkehrungen. Bei der Busfahrt über das rund einen Quadratkilometer große Werksgelände wird auch klar, warum: Die Chemikalien, die Merck in seiner Produktion einsetzt und die in gesicherten Behältern lagern, sind teilweise leicht entflammbar. Elektrogeräte wie Handys können Funken verursachen und sollten daher – genau wie an einer Tankstelle – sicherheitshalber ausgeschaltet sein. Das gesamte Gelände ist durch Gegensätze gekennzeichnet: In über 100 Jahre alten Backsteinhäusern sind durch die Fenster modernste Chemieanlagen zur Fertigung von Flüssigkristallen zu sehen. Schräg gegenüber schimmert die silberne Aluminium-Außenfront eines ganz neuen Gebäudes. Alt und neu stehen in diesem ältesten aller pharmazeutischen Unternehmen, dessen Geschichte bis in das Jahr 1668 zurückreicht, sichtbar nebeneinander.
Rund 9100 Mitarbeiterinnen und Mitarbeiter sind beim Pharma- und Chemiekonzern Merck in Darmstadt beschäftigt. Einer davon ist seit Ende 2008 der 44-jährige Physiker Stefan Gilb, der auf Umwegen zur Pharmabranche gekommen ist: Ursprünglich hat er eine Ausbildung zum Physiklaboranten gemacht, doch bei seiner täglichen Arbeit bei der BASF merkte er, dass er mehr Verantwortung übernehmen und Dinge besser verstehen wollte. „Die Entscheidung für das Physikstudium lag dann nahe, zumal mich die viele Laborarbeit in der Chemie abgeschreckt hat“, erinnert sich Stefan Gilb. Während der Promotion an der Uni Karlsruhe hat er Laserspektroskopie an sehr kleinen Metallclustern in der Gasphase betrieben. Anschließend war er noch eine Weile in München als Post-Doc tätig, bevor er sich entschlossen hat, in die Industrie zu gehen. „Ich wollte keine Forschung mehr machen, sondern einen anderen Blick auf die Dinge bekommen“, erzählt Gilb. Die Pharmabranche kannte er bereits von einer Tätigkeit als freier Mitarbeiter während seines Studiums.
Die Physik gehört für Stefan Gilb nicht mehr zum Tagesgeschäft, denn bei Merck arbeitet er im Bereich Research Informatics. Diese Abteilung unterstützt die Forscher und Laboranten darin, ihre Daten einheitlich auszuwerten und abzulegen. Ziel ist es, dass die Ergebnisse von Tests im gesamten Unternehmen weltweit vergleichbar sind und überall auf die gleiche Weise registriert werden, damit ein Forscher in Darmstadt auf den ersten Blick erkennt, unter welchen Bedingungen z. B. ein Forscher in den USA einen Test durchgeführt und welche Ergebnisse er dabei erzielt hat. Stefan Gilb koordiniert drei Standorte: Darmstadt, Genf und Billerica in der Nähe von Boston. „Im letzten Jahr habe ich mehrere Monate in Genf und Billerica gearbeitet, um mit den Leuten vor Ort zu reden und zu verstehen, was sie im Labor genau machen und welche Wünsche sie an eine Datenbank haben“, erklärt er. All diese unterschiedlichen Anforderungen gilt es, in ein generelles Konzept einzubetten. Aufbauend auf dem Wissen, das er sich in den verschiedenen Laboren angeeignet hat, versucht Stefan Gilb nun aufzuzeigen, wo man Prozesse harmonisieren kann. ...
Schwerpunkt
Offene Fragen – große Erwartungen
Der Large Hadron Collider (LHC) ermöglicht Schlüsselexperimente zum Verständnis von Kräften und Materie.
Seit März 2010 kollidieren am Large Hadron Collider am europäischen Forschungszentrum CERN in Genf Protonen miteinander – bei den höchsten bislang in Beschleunigerlabors erzielten Energien. Damit erreicht die Teilchenphysik erstmals die TeV-Energieskala, auf der richtungsweisende Entdeckungen zu erwarten sind.
Ein Blick in die Wissenschaftsseiten der Zeitungen erweckt leicht den Eindruck, die Suche nach dem Higgs-Teilchen wäre die zentrale und einzige Aufgabe des Large Hadron Collider – insbesondere nachdem die Panikmache vor winzigen Schwarzen Löchern aus der Presse verschwunden ist. Doch der Eindruck trügt: Sicherlich ist die Untersuchung der Symmetriebrechung der schwachen Wechselwirkung – und damit verbunden die Suche nach dem Higgs-Teilchen – ein zentraler Punkt, aber die Aufgaben des LHC sind weitaus vielfältiger.
Obwohl der LHC erst auf einen Betrieb von etwa zwei Jahren zurückblicken kann, sind die Fülle und hohe Qualität der durchgeführten Messungen beeindruckend. Sowohl der Beschleuniger als auch die Detektoren haben ihre hervorragende Leistungsfähigkeit unter Beweis gestellt. Der Beschleuniger hat 2011 mehr Daten geliefert, als die Forscher sich erträumt hatten. Die Daten wurden hocheffizient aufgezeichnet und zeitnah analysiert. Die beiden großen Kollaborationen, ATLAS und CMS, haben jeweils mehr als 100 Artikel in referierten Zeitschriften publiziert. Auch das soziologische Experiment – die erfolgreiche Zusammenarbeit von mehreren Tausend Wissenschaftlern – ist offenbar gelungen.
Der LHC ist das größte Projekt der Elementarteilchenphysik. Der Beschleuniger wurde in rund 12 Jahren vom CERN unter Beteiligung von Industriepartnern gebaut. Supraleitende Magnete erzeugen eine Feldstärke von etwa 8,3 Tesla und halten damit die hochenergetischen Protonen auf der etwa 27 km langen Kreisbahn. Damit ist der LHC auch die größte supraleitende Anlage der Welt. ...
Von der Idee zur Rekordmaschine
Zahlreiche technologische Fortschritte waren notwendig, um den LHC zu realisieren.
Der Large Hadron Collider ist die größte und eine der komplexesten Maschinen, die der Mensch je gebaut hat. Er markiert den bisherigen Höhepunkt einer Reihe von Beschleunigern, die Ingenieure und Physiker erdacht haben, um die Struktur der subnuklearen Materie zu erkunden. Zahlreiche technische Innovationen waren nötig, um den LHC zu realisieren und zu bislang unerreichten Energien vorzudringen.
Ein Collider ist eine Maschine, die zwei Teilchenstrahlen auf hohe Energien beschleunigt und in speziellen Detektoren zur Kollision bringt. Beim LHC können die Hadronenstrahlen aus Protonen oder Ionen (z. B. Blei) bestehen. Die (Weiter-)Entwicklung zahlreicher innovativer Konzepte und Technologien erlaubt es, Kollisionsereignisse mit hoher Rate im Energiebereich vieler Tera-Elektronenvolt zu erzeugen – näher an den Bedingungen des Urknalls als je zuvor [1]. Um einen Eindruck von der gewaltigen Energie zu geben: Ein Elektronenvolt (eV) ist die Energie, die ein Elektron nach Durchlaufen einer 1 m langen Beschleunigungsspannung von 1 V/m erreicht. Der Protonenenergie von 1 TeV entspricht demnach eine 1000 km lange Strecke mit einer Beschleunigungsspannung von 1 M/m.
Schon 1977 kam während der Entwicklung des Large Electron Positron (LEP) Colliders die Idee auf, in dem 26,6 km langen Beschleunigertunnel nach Abschluss des LEP-Betriebs einen Collider für Hadronen zu bauen. Die CERN-Mitgliedsstaaten bewilligten das LHC-Projekt 1994 und führten es in den Folgejahren mit internationalen Beiträgen aus Japan, Kanada und den USA aus. Weitere Länder wie China, Indien oder Russland haben ebenfalls dazu beigetragen.
Der LHC besteht aus zwei unabhängigen, nebeneinanderliegenden Vakuumröhren, die im Mittel 100 Meter unter der Erdoberfläche im Beschleunigertunnel installiert sind (Abb. 1) [2]. Das benötigte, kontinuierliche Vakuumsystem mit einem Druck von unter 10−9 mbar ist eine der vielen technologischen Meisterleistungen am LHC. Die beiden kreisförmigen Ringe speichern zwei gegenläufige Teilchenstrahlen, die jeder mit über 99,99979 % der Lichtgeschwindigkeit etwa 11 000 Mal pro Sekunde umlaufen. ...
Technische Meisterwerke
In internationalen Kollaborationen entwickelt und aufgebaut, zeichnen die Detektoren die komplexen Reaktionen auf.
Auf den ersten Blick scheinen sich die Detektoren des Large Hadron Collider weitgehend zu ähneln: Wie Zwiebelschalen sind ATLAS, CMS, LHCb und ALICE um den Punkt herum aufgebaut, an dem die Teilchen kollidieren, und überdecken somit einen möglichst großen Teil des Raumwinkels. Welche Nachweiskonzepte stehen hinter diesen riesigen Detektoren? Worin unterscheiden sich ihre Ansätze, um den unterschiedlichen physikalischen Fragen, die sie beantworten sollen, gerecht zu werden?
Bei der Konzeption von Detektoren für einen Energiebereich, in dem „neue Physik“ erwartet wird, müssen sich die Teilchenphysiker zwangsläufig auf Phänomene fokussieren, die zwar bisher unbekannt, innerhalb des Gebäudes der Teilchenphysik aber „denkbar“ sind. Die Herausforderung besteht darin, charakteristische Merkmale dieser Phänomene (die „Signaturen“) in den Produkten einer Teilchenkollision nachzuweisen, also im sichtbaren Ereignis im Detektor.
Die beiden Großexperimente ATLAS und CMS (siehe Überblick auf S. 28) wurden insbesondere darauf optimiert, in Ereignissen von Proton-Proton-Kollisionen höchster Energie Signaturen von Higgs-Bosonen oder supersymmetrischen Teilchen zu finden. Der Erzeugungsquerschnitt für Higgs-Bosonen wird zum Beispiel je nach dessen Masse zwischen 10 fb und 50 pb erwartet (1 b = 1 barn = 10–24 cm2). Dies ist 13 bis 9 Größenordnungen kleiner als der totale Wirkungsquerschnitt für inelastische Proton-Proton-Reaktionen bei 14 TeV von etwa 80 mb. Um trotzdem genügend Higgs-Ereignisse zu erzeugen, wurde die Luminosität des LHC so hoch wie möglich getrieben (siehe Artikel auf S. 33). Als Konsequenz kommt es jedes Mal, wenn sich die Protonenpakete alle 25 ns kreuzen, im Mittel zu 25 inelastischen Proton-Proton-Kollisionen, die zusammen pro Sekunde etwa 1011 nachzuweisende Teilchen erzeugen. Das ergibt eine Datenmenge von 50 000 Gigabyte pro Sekunde. Eine elektronische Aufzeichnung und Zwischenpufferung der rund 150 Millionen Auslesekanäle und ein ausgeklügeltes elektronisches Auswahlsystem (Trigger) ermöglichen es jedoch, die Datenmenge bereits vor der Speicherung um vier Größenordnungen zu reduzieren und dabei einen möglichst großen Teil der interessanten Ereignisse zu behalten. Dies bedeutet immer noch eine jährliche Datenmenge von einigen Millionen Gigabyte, die über das weltweite LHC-Computing-GRID [1] verteilt, verwaltet und analysiert wird. ...
Die starke Seite des LHC
Der LHC eröffnet gänzlich neue Bereiche höchster räumlicher Auflösung und Energiedichten für die genaue Untersuchung der starken Wechselwirkung.
In den letzten vier Jahrzehnten haben zahlreiche Experimente Vorhersagen der Quantenchromodynamik (QCD), der Theorie der starken Wechselwirkung, bestätigt. Bereits die ersten Daten des LHC ermöglichen weitere Tests bei bisher unerreichten Impulsüberträgen und Energien, die die QCD in beeindruckender Weise bestanden hat.
Nach heutiger Kenntnis sind die durch die starke Wechselwirkung in Kernen der Größenordnung 10–14 m gebundenen Protonen und Neutronen (Nukleonen), ebenso wie alle anderen stark wechselwirkenden Teilchen (Hadronen), wiederum zusammengesetzt aus noch kleineren Konstituenten, den auch Partonen genannten Quarks und Gluonen. Die als punktförmig betrachteten Partonen tragen Farbladungen, deren starke Wechselwirkung sich mithilfe der Quantenchromodynamik beschreiben lässt. Besonderheiten der QCD sind das „Confinement“ sowie die „asymptotische Freiheit“ [1]. Ersteres besagt, dass alle Quarks und Gluonen in Hadronen eingesperrt bleiben und nicht als freie Teilchen nachweisbar sind. Ursache dafür ist die Stärke der Wechselwirkung, die zu großen Abständen hin sogar noch anwächst. Im Kontrast dazu beschreibt die asymptotische Freiheit die Beobachtung, dass sich die Partonen innerhalb eines Teilchens als quasifrei ansehen lassen, wenn man die Struktur der Hadronen mit hoher Auflösung untersucht. Je größer der Impulsübertrag in der Reaktion, der sich aus den Transversalimpulsen der erzeugten Teilchen relativ zur Strahlrichtung bestimmen lässt, desto höher ist die erreichte Auflösung und desto tiefer der Einblick in die Struktur des Protons.
Ereignisse mit den höchsten Transversalimpulsen entsprechen einer Auflösung von rund 10–19 m (Abb. 1).
Aufgrund der asymptotischen Freiheit lässt sich die Dynamik der Partonen bei kleinsten Abständen bzw. größten Impulsüberträgen mit dem mächtigen Werkzeug der Störungsrechnung in der starken Kopplungskonstanten αs theoretisch behandeln (perturbative QCD oder pQCD). Damit man auf diese Weise den Wirkungsquerschnitt einer unelastischen Proton-Proton-Streuung berechnen kann, also die auf eine Streureaktion bezogene Wahrscheinlichkeit für die Wechselwirkung zweier Protonen, ist es allerdings unerlässlich zu wissen, wie die Partonen in den kollidierenden Protonen verteilt sind (Abb. 2). Diese Partondichten lassen sich bisher zwar nicht ab initio berechnen, aber im Experiment bestimmen, z. B. bei HERA mit Hilfe der Elektron-Proton-Streuung [3]. Dank der experimentell gut überprüften Annahme, dass die Partonverteilungen nicht von der speziellen Teilchenreaktion abhängen, erlaubt die QCD dann präzise Vorhersagen für die Wirkungsquerschnitte der Proton-Proton-Streuung (pp) am LHC. ...
Mit Präzision zu neuen Phänomenen
Liefert die elektroschwache Wechselwirkung bei höchsten Energien Überraschungen?
Neben der direkten Suche nach neuen physikalischen Phänomenen bei höchsten Energien erlaubt der Large Hadron Collider auch Präzisionsmessungen, mit denen sich die Vorhersagen des Standardmodells der Elementarteilchen genau überprüfen lassen. Mögliche Inkonsistenzen und Abweichungen der Messungen von den Vorhersagen können indirekte Hinweise auf bisher unentdeckte Effekte geben.
Eine Vielzahl von Messungen hat das Standardmodell der Teilchenphysik in den letzten Jahrzehnten mit beindruckender Präzision bestätigt. Dennoch wissen wir, dass diese Theorie unvollständig sein muss: Sie liefert weder Kandidaten für die im Universum nachgewiesene Dunkle Materie noch kann sie die Materie-Antimaterie-Asymmetrie unserer Welt erklären. Konzeptionelle Fragen, wie etwa die tiefere Ursache der beobachteten drei Generationen von Quarks und Leptonen, bleiben offen. Daher gilt das Standardmodell heute als eine Näherung einer umfassenderen Theorie, die mit neuen, an höheren Energieskalen beobachtbaren Phänomenen einhergehen sollte.
Zum Aufspüren dieser neuen Phänomene sind weitere Präzisionsmessungen essenziell. Sie dienen zum einen dazu, die noch ungenau bekannten Parameter des Standardmodells besser zu bestimmen, um präzisere Vorhersagen machen zu können. Zum anderen ermöglichen sie den Nachweis von theoretisch vorhergesagten Quantenfluktuationen. Diese Fluktuationen, zu denen im Rahmen der Unschärferelation kurzzeitig auch sehr schwere Teilchen beitragen, können Größen wie Teilchenmassen und Kopplungskonstanten, aber auch die Zerfallseigenschaften von Teilchen beeinflussen. Grundsätzlich gilt, dass Quantenkorrekturen höherer Ordnung, bei denen also eine größere Zahl an Teilchenkopplungen auftritt, gegenüber einfacheren Prozessen unterdrückt sind.
Die Messung der teilweise sehr kleinen Quanteneffekte erlaubt Rückschlüsse auf die Eigenschaften der in den Fluktuationen virtuell auftretenden Teilchen. So ließ sich die Masse des Top-Quarks aus präzisen Daten zum Z-Boson vorhersagen, noch bevor es gelang, das Top-Quark direkt nachzuweisen. Präzisionsmessungen unterstützen auch die Suche nach dem Higgs-Boson, da Quantenkorrekturen mit einem virtuellen Higgs-Boson die Massen schwerer Teilchen wie Top-Quark und W-Boson beeinflussen (Abb. 1). Daher schränken die experimentell bestimmten W- und Top-Massen die mögliche Higgs-Masse weiter ein. So deuten die am LEP2- bzw. Tevatron-Beschleuniger erzielten Ergebnisse auf eine kleine Higgs-Masse nahe der bisherigen Ausschlussgrenze von 114 GeV/c2 hin (Abb. 2) [1]. Für eine präzisere Aussage wäre es nötig, die W-Masse genauer zu kennen. Wird das Higgs-Boson direkt nachgewiesen, erlaubt der Vergleich von direkt und indirekt ermittelter Higgs-Masse einen wichtigen Konsistenztest des Standardmodells. ...
Großfahndung im Untergrund
Erste Ergebnisse der direkten Suchen nach neuen Teilchen am Large Hadron Collider
Ein zentrales Motiv für den Bau des LHC war die Suche nach neuen Elementarteilchen und Wechselwirkungen. Dazu zählen insbesondere das Higgs-Boson, der letzte fehlende Baustein des Standardmodells, sowie Teilchen, die von supersymmetrischen Erweiterungen des Standardmodells vorhergesagt werden.
Zu den ungeklärten Rätseln der Teilchenphysik gehört die Frage nach dem Ursprung der Masse der Elementarteilchen. Obwohl die mathematische Struktur des Standardmodells eigentlich nur masselose Teilchen vorsieht, haben z. B. die Austauschteilchen der schwachen Wechselwirkung, die W+-, W–- und Z0-Bosonen, eine Masse von 80 beziehungsweise 91 GeV/c2. Das Standardmodell beruht auf der Hypothese, dass der sog. Higgs-Mechanismus Teilchen ihre Masse verleiht. Dieser Mechanismus sagt außerdem ein neues Teilchen voraus, das Higgs-Boson. Die experimentelle Suche nach diesem entscheidenden fehlenden Baustein im Mosaik des Standardmodells ist zentral für das Forschungsprogramm des LHC.
Das zweite ungeklärte Rätsel ist die Frage, was jenseits des Standardmodells kommt. Bisher beschreibt das Standardmodell alle beobachteten Wechselwirkungen der Elementarteilchen, eine durchaus bemerkenswerte wissenschaftliche Errungenschaft. Von einer fundamentalen Theorie der Natur ist es jedoch noch weit entfernt, denn die Liste seiner unerklärten Eigenschaften ist recht lang: Auffällig ist zunächst seine Struktur mit drei fundamentalen Kräften und mit drei Generationen von Leptonen und Quarks. Weder für diese Struktur noch für die damit verbundenen Zahlenwerte der Naturkonstanten (Massen, Kopplungskonstanten, ...) gibt es im Standardmodell eine Erklärung. Auch ist fraglich, ob diese Theorie bei sehr hohen Energien gültig sein kann, denn hierfür müssten einige Parameter sehr präzise Werte annehmen. Eine solche Feinjustierung – auch als Hierarchieproblem bekannt – gilt vielen Physikern als unnatürlich. Zudem ist es bisher nicht gelungen, das Standardmodell mit der Gravitation in einer gemeinsamen Theorie zu verknüpfen. Eine Erklärung für die Beobachtung Dunkler Materie und Dunkler Energie im Universum fehlt ebenfalls. Diese Mängelliste ließe sich noch fortsetzen.
Aus diesen Gründen wurde in den letzten Jahrzehnten eine Vielzahl von Erweiterungen des Standardmodells vorgeschlagen. Der prominenteste Kandidat ist die Supersymmetrie. Im Gegensatz zum Standardmodell, in dem alle Materieteilchen Fermionen mit Spin ½ sind und Bosonen mit Spin 1 alle Kräfte vermitteln, basiert Supersymmetrie auf dem Postulat einer Symmetrie zwischen Fermionen und Bosonen. Die damit vorhergesagten neuen Teilchen können jedoch viel schwerer als ihre Partner im Standardmodell sein, sodass sie in bisherigen Experimenten nicht zu entdecken waren. Falls das leichteste supersymmetrische Teilchen stabil ist, würde sich damit auch direkt die Existenz Dunkler Materie erklären lassen. ...
Physik im Alltag
Menschen
Bücher/Software
DPG
Tagungen
Innovative Nuclear Power in a Closed Fuel Cycle Scenario
494. WE-Heraeus-Seminar
Frontiers in Biomolecular Simulation – Modeling Processes on a Large Scale
495. WE-Heraeus-Seminar