Schlagwort-Archive: Standardmodell

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Proton-Paradoxon: Sind Physiker auf unbekanntes Naturgesetz gestoßen?

Heidelberg. Zwei Experimente lieferten verschiedene Werte für den Radius des Protons. Messfehler halten die Physiker mittlerweile für praktisch ausgeschlossen. Sind sie auf ein bislang unbekanntes physikalisches Phänomen gestoßen?

Das Proton muss doch längst perfekt verstanden sein! Es ist einer der Hauptbestandteile aller Materie, die uns umgibt, der Brennstoff der Sterne im Universum. Es ist der positiv geladene Kern des Wasserstoffatoms, des am besten untersuchten Atoms überhaupt. Das Teilchen wurde in zahllosen Experimenten genauestens vermessen, und auch am Large Hadron Collider (LHC) des europäischen Teilchenforschungszentrums CERN bei Genf sind es Protonen, die wir bei höchsten Energien miteinander kollidieren lassen, um neue Teilchen wie das Higgs-Boson entstehen zu lassen.

Kann das Proton also keine Überraschungen mehr für uns bereithalten? Weit gefehlt. Zusammen mit anderen Physikern haben Jan Bernauer und Randolf Pohl, die Autoren von “Das Proton-Paradox”, Titelgeschichte der April-Ausgabe 2014 von Spektrum der Wissenschaft, in den letzten Jahren die bislang präzisesten Messungen des Radius dieses Partikels vorgenommen. Anfangs erwarteten sie, durch die zwanzigfach höhere Genauigkeit dem lange bekannten Wert des Protonenradius lediglich die eine oder andere Nachkommastelle hinzuzufügen. Das war ein Irrtum. Vielmehr lieferten die beiden Experimente, bei denen unterschiedliche Messverfahren zum Einsatz kamen, zwei Werte, die deutlich voneinander abweichen: nämlich um mehr als das Fünffache der so genannten kombinierten Messunsicherheit. Die Wahrscheinlichkeit, dass dies nur ein Zufall ist, beträgt weniger als eins in einer Million.

Während Jan Bernauer seine Messungen als Doktorand am Institut für Kernphysik der Universität Mainz durchführte – heute forscht er am Laboratory for Nuclear Science des Massachusetts Institute of Technology in Boston –, arbeitete Randolf Pohl vom Max-Planck-Institut für Quantenoptik in Garching an einem Beschleuniger des Paul Scherrer Instituts im schweizerischen Villigen. Immer neue technische und organisatorische Probleme hatten die Realisierung des neuartigen Messverfahrens, auf das er seine Hoffnungen setzte, auf Jahre verzögert. Statt mit gewöhnlichem Wasserstoff arbeitete er mit Wasserstoff, in dem statt eines Elektrons dessen 200-mal schwerer Vetter, ein Myon, das Proton umkreist.

Als aber endlich doch alles funktionierte, war das Resultat frustrierend: Die Forscher maßen kein einziges Signal. “Wir überlegten fieberhaft”, berichtet Pohl. “Könnten die Ursachen unseres Problems tiefer liegen als wir bis dahin vermutet hatten? Was wäre denn, wenn wir nach dem Protonenradius an der falschen Stelle, also bei den falschen Wellenlängen unseres Lasers, suchten? Wir beschlossen, unseren Suchradius zu erweitern. Doch in welche Richtung? Gemeinsam fassten wir den Entschluss, nach einem größeren Protonenradius Ausschau zu halten. Doch etwas später an diesem Abend kam mein Kollege Aldo Antognini in den Kontrollraum des Beschleunigers und meinte, wir sollten stattdessen nach einem kleineren Protonenradius suchen. Zu diesem Zeitpunkt arbeiteten wir längst in 20-Stunden-Schichten.”

Da den Forschern die ihnen am Beschleuniger zugestandene Zeit davonlief, steuerten sie die experimentellen Parameter schließlich sogar in Richtung noch kleinerer Werte, als jemals vermutet worden waren. Dann die Überraschung: Die ersten Hinweise auf ein Signal tauchten auf! Die Wissenschaftler waren elektrisiert – doch das Ergebnis wich um vier Prozent von bisherigen Messungen ab; eine drastische Diskrepanz. Das Proton im myonischen Wasserstoff war deutlich kleiner als irgendjemand erwartet hätte.

In der Forschergemeinde verursachte dies einige Aufregung. Die meisten Physiker glaubten zwar schlicht, dass ein Fehler im Spiel sein müsste. Schon bald meldete sich eine ganze Reihe von ihnen mit Vorschlägen, wo er stecken könnte. Doch eine Erklärung nach der anderen schlug fehl – und jedes Mal wuchs die Bedeutung der Messergebnisse.

Mittlerweile glauben die meisten Forscher, dass die Diskrepanz tatsächlich existiert, und arbeiten an neuen, noch präziseren Experimenten. Ihre große Hoffnung: Die Ergebnisse von Bernauer und Pohl könnten auf bislang unbekannte Naturgesetze hindeuten, indem sie Hinweise auf Teilchen und Kräfte liefern, die über das so genannte Standardmodell der Teilchenphysik hinausgehen. Vielleicht enthält das Universum ja ein bislang unentdecktes Elementarteilchen, das mit Myonen anders wechselwirkt als mit Elektronen? Denn das Myon hat sich auch an anderer Stelle verdächtig gemacht: Messungen seines so genannten magnetischen Moments passen nicht zu den theoretischen Berechnungen.

Im besten Fall stoßen die Wissenschaftler in den kommenden Jahren sogar auf eine Antwort, die beide Rätsel auf einen Schlag löst.  (Quelle: Spektrum der Wissenschaft, April 2014)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Gottes- oder Higgs-Teilchen: Urknallexperiment erfolgreich.

Am europäischen Forschungszentrum für Elementarteilchenphysik CERN in Genf sind heute die neuesten Ergebnisse der Suche nach dem Higgs-Teilchen vorgestellt worden. In den Daten des Large Hadron Colliders (LHC) wurden deutliche Anzeichen für ein neues Teilchen beobachtet, welches das seit langem gesuchte Higgs-Teilchen sein könnte, dem eine Schlüsselrolle in der Elementarteilchenphysik zukommt. An den Messungen mit dem Großdetektor ATLAS sind die Physiker der Universität Bonn mit vier Professoren und ihren Arbeitsgruppen beteiligt. Sie haben den Pixeldetektor für dieses Experiment entwickelt und sind in Betrieb und Datennahme stark involviert.
In mehreren randvoll mit Wissenschaftlern gefüllten Auditorien am CERN in Genf wurde heute morgen im Rahmen eines Sonderseminars der neueste Stand der Suche nach dem ominösen Higgs-Teilchen vorgestellt. Dem bis heute nur postulierten Higgs-Teilchen kommt in der Teilchenphysik eine Schlüsselrolle zu: Es ist ein zentrales Element in der Standardmodell genannten Theorie und ist dafür verantwortlich, dass die Elementarteilchen ihre Masse erhalten. Die Messdaten des LHC zeigen deutliche Anzeichen für die Existenz eines neuen Teilchens mit einer Masse von 126 Giga-Elektronenvolt, das heißt ca. 130-mal so schwer wie ein Proton, welches das Higgs-Teilchen sein könnte.

Die Ergebnisse von ATLAS und CMS, den beiden großen Experimenten am LHC, zeigen konsistente und sehr signifikante Hinweise auf das neue Teilchen. „Erste Hinweise auf das Higgs-Teilchen in den Daten des LHC gab es bereits vor einem halben Jahr, doch es war noch zu früh, um von einer Entdeckung zu sprechen”, sagt Prof. Dr. Norbert Wermes vom Physikalischen Institut der Universität Bonn. Jetzt sind mehr als doppelt so viele Daten aufgezeichnet und untersucht worden. Die Wahrscheinlichkeit, dass die Ergebnisse der Messung durch eine Fluktuation des Untergrundes erklärt werden könnten, ist kleiner als eins in einer Million.

Ob es sich tatsächlich um das Higgs-Teilchen handelt, oder ob man gar etwas gänzlich Unerwartetem auf der Spur ist, kann erst durch weitere Untersuchungen mit mehr Messdaten entschieden werden. In jedem Fall würde es sich um eine bahnbrechende Entdeckung handeln. „Teilchenphysiker aus aller Welt haben jahrzehntelang auf diesen Tag hingearbeitet und nun scheint er endlich gekommen zu sein”, sagt Prof. Jochen Dingfelder von der Universität Bonn. „Die Entdeckung des vorhergesagten Higgs-Teilchens ist ein großartiger Erfolg für die Teilchenphysik”, sagt Prof. Wermes.

Die im ATLAS-Experiment arbeitenden deutschen Gruppen an 13 Universitäten und Forschungseinrichtungen haben an dieser Entdeckung maßgeblichen Anteil. Die Physiker der Universität Bonn haben in Zusammenarbeit mit Arbeitsgruppen aus Dortmund, Siegen und Wuppertal sowie internationalen Partnern den Pixeldetektor entwickelt und wesentlich zum Bau des so genannten Innendetektors für Teilchenspuren des Experiments beigetragen. Sie sind bereits seit 1993 an Planung, Bau und Betrieb des Experimentes beteiligt. Der Pixeldetektor sitzt nur wenige Zentimeter entfernt von der Kollisionszone der LHC-Strahlen und fungiert in gewissem Sinne als Lupe für die Urknallreaktionen, in denen das neue Teilchen jetzt gefunden wurde.

Vier Arbeitsgruppen um die Professoren Ian C. Brock, Klaus Desch, Jochen Dingfelder und Norbert Wermes werten die Messungen des ATLAS-Experimentes am LHC aus. „Neben der Suche nach dem Higgs-Teilchen wird in Bonn auch an Suchen nach noch unentdeckten Phänomenen und Elementarteilchen sowie der Untersuchung des schwersten uns bekannten Elementarteilchens, des Top-Quarks, aktiv gearbeitet”, berichtet Prof. Ian Brock.

Der LHC wird planmäßig noch bis Ende dieses Jahres Daten liefern, bevor er für eine längere Zeit abgeschaltet und für den Betrieb bei höherer Energie bereit gemacht wird. Diese Daten werden helfen, das Higgs-Teilchen noch dingfester zu machen und seine Identität besser zu verstehen „Der LHC hat eines seiner Hauptziele erreicht”, sagt Prof. Klaus Desch. „Die Arbeit fängt jetzt aber erst richtig an. Wir müssen verstehen, ob die Beobachtung mit der Theorie der Teilchenphysik in Einklang ist, und die Eigenschaften des Higgs-Teilchens möglichst detailliert untersuchen.” Die kommenden Monate und Jahre versprechen für die Erforschung der Teilchenwelt spannend zu werden. (Quelle: idw, Bild: KDS)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Das Gottesteilchen eingekreist


Noch nicht gefunden – aber alle Zeichen deuten auf seine Existenz hin: Das Higgs-Teilchen, welches die Physikerinnen und Physiker am CERN, dem Europäischen Laboratorium für Teilchenphysik in Genf jagen, wird eingekreist. Das vermelden die beteiligten Forschungskollaborationen. Aufgrund der Daten, die sie in den 18 Monaten seit dem Start des weltgrössten Teilchenbeschleunigers «Large Hadron Collider» (LHC) gesammelt haben, liegen den Wissenschaftlern Hinweise zur Existenz des im Standardmodell vorhergesagten Teilchens vor. Das Higgs-Feld, das nach dem schottischen Physiker Peter Higgs benannt wird, soll allen Teilchen ihre Masse verleihen. Das macht das Higgs-Teilchen zu einem wichtigen Bestandteil im geltenden Verständnis der Physik und deshalb wird es manchmal auch das «Gottesteilchen» genannt.

Die Analyse der bisherigen Daten zeigt, dass bei einem bestimmten Massenwert (125 Gigaelektronenvolt) «mehr charakteristische Ereignisse auftauchen, als es geben würde, wenn das Higgs-Teilchen nicht existierte», erklärt der am ATLAS-Experiment beteiligte Berner Physiker Hans Peter Beck. Die Wissenschaftler stellen aber klar, dass «es zu früh für Schlussfolgerungen ist»: Es braucht mehr Daten, um den noch offenen Massenbereich von 116 bis 130 Gigaelektronenvolt endgültig abzudecken. Das ist der Bereich, in dem das Higgs-Teilchen sich überhaupt noch tummeln kann, die anderen Bereiche wurden gründlich «abgesucht». Beck rechnet damit, dass bis Ende nächstes Jahr definitiv klar ist, ob das Higgs-Teilchen existiert oder nicht. «Mit etwas Glück gehts sogar schneller.»

Der LHC-Teilchenbeschleuniger und die vier Detektoren

Um in bislang unerreichte Dimensionen im Verständnis der Elementarteilchen vorzudringen, lassen die Physikerinnen und Physiker des CERN im 27 Kilometer langen unterirdischen LHC Protonenstrahlen mit je 3,5 Teraelektronenvolt kreisen und mit beinahe Lichtgeschwindigkeit kollidieren. Bei dieser höchsten jemals künstlich erzeugten Kollisionsenergie simulieren sie den Urknall vor rund 14 Milliarden Jahren – und erhoffen sich ein besseres Verständnis über den Aufbau des Universums. Um das Higgs-Boson – und andere neue Kleinstteilchen – zu entdecken und nachzuweisen, wurden vier riesige Detektoren (ATLAS, CMS, LHCb und ALICE) um die vier Kollisionsstellen am LHC aufgebaut; der grösste würde die Kathedrale Notre-Dame in Paris zur Hälfte füllen, während der schwerste mehr Eisen enthält als der Eiffelturm.
Mit dem ATLAS-Detektor mit seinen sensiblen und ausgeklügelten Spurendetektoren, Kalorimetern, Müon-Spektrometern und hochpotenten Magnetfeldern versucht eine internationale Forschungskollaboration mit Berner Beteiligung den Kleinstteilchen auf die Schliche zu kommen, welche aus den Proton-Proton-Kollisionen entstehen. Das stellt die Wissenschaft schon von Beginn weg vor grosse Herausforderungen: Von den 600 Millionen Proton-Proton-Kollisionen, die pro Sekunde im ATLAS-Detektor stattfinden, sind nur gerade 200 interessant genug, um deren Daten zu analysieren. Bei dieser Datenselektion ist der Physiker Hans Peter Beck federführend, er spielt seit 1997 bei der Systemarchitektur der Ereignisselektion und deren Inbetriebnahme eine führende Rolle. Sigve Haug erstellte in Bern einen grossen Grid-Computer-Cluster (500 CPU cores und 200 Terabytes an Diskspeichern), um die riesige Daten-Menge zu bewältigen. (Quelle: idw)

Buchtipp:
Supervereinigung: Wie aus nichts alles entsteht. Ansatz einer großen einheitlichen Feldtheorie

Dunkle Energie: Welches Schicksal erwartet unser Universum?

Geheimnisse des Universums: Dunkle Energie

Umstrittene Dunkle Energie

Gibt es eine Alternative, die beschleunigte Expansion des Weltalls zu erklären?
Das Universum scheint sich beschleunigt auszudehnen. Ursache dafür soll eine seltsame neue Energieform sein, Fachleute nennen sie die Dunkle Energie. Das Problem: Niemand weiß wirklich, was diese Dunkle Energie wirklich ist. Bisher suchen sie jedenfalls vergeblich nach Erklärungen für das rätselhafte Verhalten des Kosmos.

Kein Wunder, dass immer wieder alternative Modelle entwickelt werden, um vielleicht ohne exotischen Energieformen auszukommen. Wie zwei Kosmologen von der Oxford University im aktuellen August-Heft von “Spektrum der Wissenschaft” in der Titelgeschichte beschreiben, könnte ein solches Alternativmodell so aussehen: Falls wir kosmisch gesehen inmitten einer Region leben, in der weniger Sterne und andere Materie zu finden sind als anderswo, dann würde sich der astronomische Befund vom gleichmäßig beschleunigten Universum anders darstellen. Dann variiert nämlich die kosmische Expansionsrate mit dem Ort – und das würde den Astronomen eine kosmische Beschleunigung nur vorspiegeln, ohne es wirklich zu sein.

Könnte es also sein, dass wir im Universum nicht in einer gleich verteilten Ansammlung von Sternen und Galaxien leben, wie das kosmische Standardmodell annimmt? Eine riesige Leere um die Erde und ihr Milchstraßensystem herum kommt den meisten Kosmologen deshalb auch sehr unwahrscheinlich vor, doch einige Forscher ziehen sie der mysteriösen Dunklen Energie vor. Was spricht dafür? Was spricht dagegen?

Die Entdeckung des beschleunigten Universums kündigte sich vor vor elf Jahren an. Aus einer winzigen Abweichung in der Helligkeit explodierender Sterne folgerten die Astronomen, sie hätten keine Ahnung, woraus über 70 Prozent des Kosmos bestehen. Sie konnten nur feststellen, dass der Raum anscheinend von einer ganz unvergleichlichen Substanz erfüllt wird, welche die Expansion des Universums nicht bremst, sondern vorantreibt. Diese Substanz erhielt damals den Namen Dunkle Energie.

Inzwischen ist ein Jahrzehnt vergangen, und die Dunkle Energie gibt noch immer so viele Rätsel auf, dass einige Kosmologen die grundlegenden Postulate, aus denen ihre Existenz gefolgert wurde, in Zweifel ziehen. Eines dieser Postulate ist das kopernikanische Prinzip. Ihm zufolge nimmt die Erde keinen zentralen oder sonst wie ausgezeichneten Platz im All ein. Wenn wir dieses Grundprinzip preisgeben, bietet sich eine überraschend einfache Erklärung für die neuen Beobachtungen an.

Wir haben uns längst an die Idee gewöhnt, dass unser Planet nur ein winziger Fleck ist, der irgendwo am Rand einer durchschnittlichen Galaxie einen typischen Stern umkreist. Nichts scheint unseren Ort inmitten von Milliarden Galaxien, die sich bis an unseren kosmischen Horizont erstrecken, besonders auszuzeichnen. Doch woher nehmen wir diese Bescheidenheit? Und wie könnten wir herausfinden, ob wir nicht doch einen speziellen Platz einnehmen? Meist drücken sich die Astronomen um diese Fragen und nehmen an, unsere Durchschnittlichkeit sei offensichtlich genug. Die Idee, wir könnten tatsächlich einen besonderen Ort im Universum bewohnen, ist für viele undenkbar. Dennoch ziehen einige Physiker dies seit Kurzem in Betracht.

Zugegeben: Die Annahme, wir seien kosmologisch unbedeutend, erklärt viel. Mit ihrer Hilfe können wir von unserer kosmischen Nachbarschaft auf das Universum im Großen und Ganzen schließen. Alle gängigen Modelle des Universums beruhen auf dem kosmologischen Prinzip. Die beschleunigte Expansion war also die große Überraschung, mit der die aktuelle Revolution in der Kosmologie begann.

Angenommen, die Expansion verlangsamt sich überall, weil die Materie an der Raumzeit zieht und sie bremst. Nehmen wir ferner an, dass wir in einer gigantischen kosmischen Leere leben – in einem Gebiet, das zwar nicht völlig leer gefegt ist, wo aber die mittlere Materiedichte nur etwa halb so groß ist wie anderswo. Je leerer eine Raumregion ist, desto weniger Materie bremst dort die räumliche Expansion, und entsprechend höher ist die Expansionsgeschwindigkeit innerhalb des Leerraums. Am höchsten ist sie in der Mitte; zum Rand hin, wo sich die höhere Dichte des Außenraums bemerkbar macht, nimmt sie ab. Zu jedem Zeitpunkt expandieren verschiedene Raumpartien unterschiedlich schnell – wie der ungleichmäßig aufgeblasene Luftballon.

Wie ausgefallen ist diese Idee einer monströsen Abnormität? Auf den ersten Blick sehr. Sie scheint in eklatantem Widerspruch zur kosmischen Hintergrundstrahlung zu stehen, die bis auf Hunderttausendstel genau gleichförmig ist, ganz zu schweigen von der im Großen und Ganzen ebenmäßigen Verteilung der Galaxien. Doch bei näherer Betrachtung muten diese Indizien weniger zwingend an. Die Gleichförmigkeit der Reststrahlung erfordert nur, dass das Universum in jeder Richtung nahezu gleich aussieht. Wenn eine Leere ungefähr kugelförmig ist und wir einigermaßen nahe ihrem Zentrum sitzen, muss sie nicht unbedingt den Beobachtungen widersprechen.

In kommenden Jahren werden Himmelsbeobachtungen zwischen beiden Erklärungen entscheiden.
Quelle: Spektrum der Wissenschaft, August 2009

Wird das »Gottesteilchen« dieses Jahr in Genf erscheinen?

Video: Interview mit Rolf-Dieter Heuer, ab 1. Jan. 2009 Generaldirektor des CERN

Wenn Physiker wieder einmal merken, dass sie die Welt nicht erklären können, machen sie Witze. So auch der Nobelpreisträger für Physik des Jahres 1988, Leon Ledermann. Zur Erklärung dessen, woraus die Welt in ihren kleinsten Einheiten besteht, dient das Standardmodell der Elementarteilchenphysik. Dummerweise kann diese Theorie nicht erklären, warum ein bestimmtes Teilchen eine Masse hat. So witzelte Ledermann: Die Masse stammt von Gott. Laut Standardmodell werden alle physikalischen Eigenschaften durch Teilchen verursacht. Deshalb ist das Teilchen, von dem andere Teilchen ihre Masse empfangen das »Gottesteilchen«.

Das Standardmodell der Elementarteilchenphysik beschreibt durch mathematische Formulierungen die Erscheinungen und Wechselwirkungen der Teilchen in der subatomaren Welt. Zur Erklärung, wie die Grundkräfte der Physik zwischen den Elementarteilchen vermittelt werden, dienen sogenannte Austauschteilchen (Eichbosonen). Beispielsweise ist das Lichtteilchen (Photon) so ein Austauschteil. Das Standardmodell wird durch physikalische Experimente gut bestätigt. Allerdings ist die Theorie unvollständig. Es gibt in ihr freie Parameter, die nicht durch eine Formel, sondern nur durch Schätzung oder Messung bestimmt werden können. Die Masse ist so ein freier Parameter. Um eine der Lücken im Standardmodell zu schließen, postulierte der britische Physiker Peter Higgs in den 1960er Jahren ein Gottesteilchen. Es ist ein Austauschteilchen, das seinen Namen trägt: Higgs-Boson. Dieses Higgs-Boson soll den zunächst masselosen Elementarteilchen ihre Masse geben. Aber bisher wurde es noch nicht entdeckt.

Seit Jahren suchen die Teilchenphysiker der ganzen Welt mit immer größerem technischem Aufwand nach dem Gottesteilchen. Denn die Theorie der Materie und der Elementarteilchen steht auf den schwankenden Füßen des Higgs-Bosons. Mit der Existenz oder Nichtexistenz dieses Teilchens steht und fällt ein ganzes Theoriengebäude der Physik. Bisher brachte die jahrelange Forschung keinen einzigen Hinweis auf seine Existenz. Nun soll es der größte Tempel der modernen Physik, das Kernforschungszentrum CERN in Genf mit der gigantischen Teilchenschleuder LHC richten. Das wohl teuerste Experiment der Erde soll dieses Jahr das hervorbringen, was andere schwächere Teilchenbeschleuniger nicht vermochten, die Erscheinung des Gottesteilchens auf Erden.

»Es vibriert förmlich in der globalen Gemeinde der Teilchenphysiker. Sie warten jetzt darauf, dass die Maschine anläuft, …«, bestätigt Rolf-Dieter Heuer, der neue Leiter von CERN in einem Interview mit der ZEIT online (3.9.2008). Ergänzend fügt er hinzu: »Ich bin sicher, der LHC öffnet Türen für das Verständnis des Mikrokosmos und des Universums.«

Linktipp:

Haben die kleinsten Bausteine der Materie Bewusstsein?

Ist Zeit nur eine Illusion? Physiker experimentieren mit der Zeitdehnung

(idw). Die Zeitdehnung ist einer der faszinierendsten Aspekte der speziellen Relativitätstheorie Einsteins, weil er die Vorstellung einer absolut gültigen Zeit abschafft: Uhren in bewegtem Zustand ticken langsamer. Im Experiment konnte die Zeitdehnung zum ersten Mal von Ives und Stilwell 1938 mithilfe des Dopplereffekts beobachtet werden. Physikern der Johannes Gutenberg-Universität Mainz ist es nun gelungen, die Zeitdehnung mit bisher nicht erreichter Genauigkeit zu messen. Die Wissenschaftler verwenden dazu einen Ansatz, der die Speicherung und Kühlung von Lithium-Ionen und die Messung ihrer optischen Frequenzen mit einem Frequenzkamm verbindet. “Die Erforschung der Zeitdehnung ist nicht nur für die Grundlagenphysik von Bedeutung, sondern hat für die satellitengestützte Positionsbestimmung mit GPS und viele andere Anwendungen in der Kommunikationstechnologie eine ganz praktische Funktion”, erklärt Univ.-Prof. Dr. Gerhard Huber von der Universität Mainz dazu. Die Arbeit, die in Kooperation mit Wissenschaftlern aus Heidelberg, Garching und Winnipeg entstanden ist, wurde vom Wissenschaftsmagazin Nature Physics online veröffentlicht.

Seit ihrer Einführung 1905 bildet die spezielle Relativitätstheorie Albert Einsteins die Grundlage für alle Beschreibungen physikalischer Vorgänge. Ein wesentliches Prinzip dieser Theorie besagt, dass die Lichtgeschwindigkeit immer konstant bleibt, unabhängig davon, ob sich ein Beobachter mit eigener Geschwindigkeit bewegt oder nicht. Allerdings ist die Zeit in diesem Konzept nun nicht mehr konstant, sondern in einem bewegten System wie beispielsweise einer Rakete im Weltall verlangsamt. Diese Zeitdilatation oder Zeitdehnung wurde 1938 erstmals gemessen und mit einer Genauigkeit von einem Prozent bestimmt. Die jetzt von Nature Physics publizierte Arbeit ist gegenüber dieser ersten Messung 100.000 Mal genauer. “Das ist eine spektakuläre Genauigkeit, die allerdings auch notwendig ist, wenn wir die Grundlagen der Physik, also das Standardmodell testen wollen”, so Prof. Gerhard Huber.

“Innerhalb einer Messgenauigkeit von 1 zu 10 Millionen konnte am TSR Speicherring in Heidelberg die spezielle Relativitätstheorie bestätigt werden”, fasst Prof. Huber zusammen. Die Messung reiht sich damit in die Serie der Überprüfung des sogenannten Standardmodells der Physik ein, das die Elementarteilchen und die zwischen ihnen wirkenden Kräfte beschreibt, und die auch den Test der Lorentz-Invarianz, also der Gültigkeit der speziellen Relativität, einschließt.

Warum Zeit nur eine Illusion ist und was in Wirklichkeit dahinter steckt, wird im Sachbuch “Unsterbliches Bewusstsein” ISBN 978-3-8370-4351-8 von Klaus-Dieter Sedlacek erklärt.

Der Entstehung des Universums auf der Spur

Wissen Sie wie unser Universum entstanden ist? Hier jetzt ein Bericht und ein Video.

(idw). Die ersten Strukturen, die sich im Universum gebildet haben, waren nicht etwa Sterne oder Planeten, sondern sogenannte “Halos” – geisterhafte Kugeln aus dunkler Materie, so schwer wie die Erde und so gross wie unser Sonnensystem. Dies haben Wissenschafter am Institut für Theoretische Physik der Universität Zürich herausgefunden und in der Zeitschrift “Nature” publiziert.

Unsere eigene Galaxie enthält noch immer Billiarden dieser Halos und man schätzt, dass alle paar tausend Jahre einer davon unsere Erde passiert und auf seinem Weg helle Gammastrahlen hinterlässt. Diese Strahlung kann nachgewiesen werden – im Gegensatz zum Halo, der unsichtbar ist, da er nur aus “dunkler Materie” besteht.

Unzählige Teilchen dunkler Materie regnen täglich auf die Erde und durch unsere Körper hindurch, ohne dass wir es bemerken. Diese Halos waren der “Gravitations-Kleber”, der gewöhnliche Materie anzog und schließlich die Bildung von Sternen und Galaxien ermöglichte. Diese Strukturen haben sich ungefähr 20 Mio. Jahre nach dem Urknall zu bilden begonnen und sind die Bausteine von allem, was wir heute sehen.

Dunkle Materie macht über 80 Prozent der Masse des Universums aus. Ihre Eigenschaften sind jedoch unbekannt. Sie scheint von den Atomen, die die Materie rund um uns bilden, völlig verschieden zu sein. Man hat dunkle Materie noch nie direkt nachweisen können; ihre Existenz wird aus ihrem Gravitationseinfluss auf gewöhnliche Materie gefolgert.

Unser Universum ist 13.7 Milliarden Jahre alt. Die ersten 20 Millionen Jahre nach dem Urknall war die Materie sehr gleichmäßig verteilt. Eine winzige Störung dieses Gleichgewichts ermöglichte es dann der Gravitation, die uns heute bekannten Strukturen zu erschaffen. Gegenden mit höherer Dichte zogen mehr Materie an, während Gegenden mit niedrigerer Dichte diese Materie verloren. Dunkle Materie verhält sich als Gravitationsquelle im Raum und herkömmliche Materie fließt in sie hinein. Die Folge war, dass ungefähr 500 Millionen Jahre nach dem Urknall Galaxien und Sterne entstanden.

Seit langer Zeit besteht die These, dass die dunkle Materie aus Teilchen besteht, die “Neutralino” genannt werden. Das Neutralino ist noch nicht nachgewiesen worden. Es ist ein vorgeschlagenes supersymmetrisches Teilchen, Teil einer Theorie, die die Widersprüche im Standardmodell der Elementarteilchen zu korrigieren versucht. Das Neutralino ist vermutlich während des Urknalls entstanden.

Auf dieses Teilchen konzentrierten sich die Berechnungen der drei Autoren des “Nature”-Beitrages, Prof. Ben Moore, Dr. Joachim Stadel und Dr. Jürg Diemand vom Institut für Theoretische Physik der Universität Zürich. Albert Einstein und Erwin Schrödinger gehören zu den ehemaligen Professoren des Instituts für Theoretische Physik der Universität Zürich, die einen erheblichen Beitrag für das Verständnis der Entstehung des Universums und der Quantenmechanik geleistet haben. Das Jahr 2005 war der hundertste Jahrestag von Einsteins bemerkenswertesten Arbeiten in Quantenphysik und Relativitätstheorie. 1905 promovierte Einstein an der Universität Zürich und veröffentlichte drei bahnbrechende Arbeiten.