Schlagwort-Archive: Materie

Geheimnisvolle Signale aus einer fernen quantenkosmologischen Vergangenheit

Was passierte bei der Geburt des Weltalls? Wie konnten sich Sterne, Planeten und ganze Galaxien überhaupt bilden? Das sind die Fragen, die Viatcheslav Mukhanov mit seinen Berechnungen zu beantworten versucht. Mukhanov ist Physik-Ordinarius an der LMU und Experte für Theoretische Quantenkosmologie. Und es ist seine Idee der Quantenfluktuationen, die ein entscheidendes Moment in der Startphase des Universums beschreibt: Ohne die Dichteschwankungen, die aus den minimalen Fluktuationen entstehen, lässt sich die spätere Verteilung der Materie und die Bildung von Sternen, Planeten und Galaxien schwerlich erklären.

Jetzt hat das Planck-Konsortium neue Auswertungen von Messergebnissen veröffentlicht. Das Weltraumteleskop hat die kosmische Hintergrundstrahlung vermessen und damit ein Abbild des frühen Universums geliefert. Diese neuen Planck-Daten decken sich exakt mit den Berechnungen des LMU-Kosmologen, etwa für die entscheidende Größe des sogenannten Spektralindexes. „Die Planck-Daten haben die grundlegende Voraussage bestätigt, dass Quantenfluktuationen am Anfang aller Strukturen im Universum stehen“, bekräftigt Jean-Loup Puget, der leitende Wissenschaftler des HFI-Instruments der Planck-Mission. „Besser könnte meine Theorie nicht bestätigt werden“, sagt Mukhanov. Schon 1981 hatte der Wissenschaftler, seit 1997 an der LMU, seinen Ansatz erstmals publiziert.

Spuren aus ferner Vergangenheit

Dass auch die Quanten im frühen Universum gewissen Fluktuationen unterlegen haben müssen, ergibt sich für Mukhanov aus der Heisenbergschen Unschärferelation. Sie besagt, dass sich Ort und Impuls eines Teilchens nicht exakt angeben lassen. Aus den submikroskopisch winzigen Fluktuationen entstanden makroskopische Dichteschwankungen. Ohne diesen Mechanismus, dessen genaue Ausprägung und Größenordnung Mukhanov berechnet, ließe sich die Verteilung von Materie im heutigen Universum nicht vorhersagen.

Die neuen Planck-Datensätze sind noch detaillierter und aussagekräftiger als die ersten Auswertungen, die vor knapp zwei Jahren veröffentlicht wurden. Mit niemals zuvor erreichter Präzision zeigen sie die Muster, mit denen sich die Fluktuationen in die Strahlung des jungen Universums eingebrannt haben. Als eine Botschaft aus ferner Vergangenheit können Teleskope wie Planck sie heute – 13,8 Milliarden Jahre später – als Mikrowellenstrahlung einfangen. So geben die Planck-Messungen Aufschluss über die Geburt des Weltalls.

Gravitationswellen nicht beglaubigt

Die Existenz von sogenannten primordialen Gravitationswellen konnten die Planck-Daten indes nicht zeigen. Diese weiteren lange gesuchten Signale des fernen Urknalls meinte das BICEP2-Team aus seinen Daten herauslesen zu können, das Teleskop vermisst von der Antarktis aus die kosmische Hintergrundstrahlung. Im März 2014 meldete das Team seine sensationelle Entdeckung – vorschnell, wie sich bald herausstellte. Und soeben veröffentlichten Planck- und BICEP2-Forscher gemeinsam einen Abgleich ihrer Daten, der keinen Nachweis der Gravitationswellen erbrachte. LMU-Forscher Mukhanov hatte schon im Frühjahr 2014 erklärt, dass die Ergebnisse von BICEP2 und Planck nicht gleichzeitig stimmen können. „Gravitationswellen mag es trotzdem geben“, sagt der LMU-Wissenschaftler. „Aber unsere Messgeräte sind offenbar noch nicht genau genug.“ Doch unabhängig davon, ob ein tatsächlicher Nachweis der Gravitationswellen gelingt: Ohne den Mechanismus der Quantenfluktuation, ergänzt Mukhanov, kommt kein Modell aus, das erklären soll, was unmittelbar nach dem Urknall geschah. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Physik sorgt für Entwicklungsschub in der Biologie

Geschichte der Biophysik

Physik und Biologie haben gemeinsame Wurzeln und haben sich oft gegenseitig inspiriert. Neue physikalische Messmethoden führten zu einem Entwicklungsschub in der Biologie und Beobachtungen der Biologen dienten als Denkanstöße in der Physik.

Kann die Physik auch prinzipielle Fragen der Biologie klären? Einige Experten hegten einst starke Zweifel. So erklärte der französische Genetiker und Medizin-Nobelpreisträger von 1965, Jacques Monod, lange Zeit, dass Leben zwar mit den Gesetzen der Physik kompatibel sei, aber nicht durch physikalische Gesetze kontrolliert werde. Ernst Walter Mayr, der große Entwicklungsbiologe, behauptete, Physik spiele in der Biologie überhaupt keine Rolle und habe praktisch nichts zur Deutung lebender Materie beigetragen. Die historischen Beispiele zeigen jedoch das Gegenteil.

Mit Physik die Zelle entdecken

Ein erster Begründer der modernen Biologie war der Delfter Kaufmann und Hobbyforscher Antoni van Leeuwenhoek, der um 1670 einfache Mikroskope baute, mit denen er eine bis zu 200-fache Vergrößerung erreichte. Die Mikroskope bestanden aus einer auf einem Kupferring ruhenden Glaskugel, als Beleuchtung diente eine Kerze. Leeuwenhoek beobachtete damit erstmals lebende Zellen – wahrscheinlich sogar große Bakterien.

Historische Skizze des Mikroskops von Robert Hooke.
Mikroskop nach Hooke

Als zweiter Entdecker der Zelle kann der englische Physiker Robert Hooke angesehen werden. Der Experimentator, dessen Name vor allem durch sein Gesetz der Elastizität bekannt ist, beobachttee im 17. Jahrhundert die Struktur von Kork und prägte den Begriff der Zelle. Seine und Leeuwenhoeks Beobachtungen über die Existenz und Bewegung von Zellen wurden von den Biologen lange als Spielerei abgetan und so dauerte es noch gut 200 Jahre, bis die Idee der Zelle vollständig akzeptiert wurde.

Physikalische Prinzipien in der Biologie

Weitere Pioniere der Biophysik waren Thomas Young und Hermann von Helmholtz, die beide über die Medizin zur Physik kamen. Der Augenarzt Thomas Young lieferte Anfang des 19. Jahrhundert mit seinem Beugungsversuch am Doppelspalt den ersten experimentellen Beweis für die Wellennatur des Lichts – gegen den Widerstand des wissenschaftlichen Establishments. In Selbstversuchen lieferte er außerdem den Beweis, dass die Adaption des Auges auf der Verformung der Augenlinse beruht und belegte die Ursache des Astigmatismus, eines optischen Abbildungsfehlers, der sich im Auge als Hornhautverkrümmung äußert. Er stellte auch die Dreifarben-Hypothese des Farbsehens auf, ausgebaut von Helmholtz und heute voll bestätigt. Ebenso wichtig für die Biologie ist Youngs Entdeckung des nach ihm benannten Gesetzes der Kapillarität.

Dargestellt ist die von Helmholtz und Young vermutete Empfindlichkeit des Auges für die drei Farbtöne rot, grün und blau/violett.
Dreifarben-Hypothese

Der Physiologe Helmholtz maß als erster die Transportgeschwindigkeit von Nervensignalen. Seine Formulierung des Energieerhaltungssatzes der Physik und die Entdeckung der zentralen Bedeutung der Zirkulationsströmung für das Fliegen wurden durch die Biologie inspiriert. Dabei ist seine Entwicklung vom Mediziner zum theoretischen Physiker außergewöhnlich: Als Mediziner begründete er die moderne Physiologie und als Physiker legte er den Grundstein für die zum Ende des 19. Jahrhunderts einsetzende enorme Entwicklung der Physik in Deutschland.

Energie und Bewegung

Die prominentesten Beispiele für die Auswirkungen der Biologie auf die Physik sind die Entdeckung des allgemeinen Energieerhaltungsssatzes durch den deutschen Arzt und Physiker Julius von Mayer und den Physiologen Hermann von Helmholtz sowie die Theorie der Brownschen Bewegung durch Albert Einstein. Mayer beobachtete als Schiffsarzt auf Java, dass das in den Venen zum Herzen zurückfließende Blut der Hafenarbeiter in den Tropen heller ist als in gemäßigten Zonen. Er wusste bereits, dass Blut umso heller ist, je mehr Sauerstoff es enthält. Daraus schloss er, dass die Arbeiter in den Tropen bei gleicher Arbeitsleistung weniger Sauerstoff – und damit Energie – verbrauchten als in gemäßigten Zonen, da weniger Wärme an die Umgebung abgegeben wird. Dies brachte ihn auf die Idee, dass Wärme und mechanische Arbeit äquivalente Energieformen sind und er bestimmte aus physiologischen Messungen sogar das mechanische Wärmeäquivalent.

Die Grafik ist zweigeteilt und zeigt statistische Bewegungen von Teilchen, die sich bei höherer Temperatur schneller bewegen.
Brownsche Bewegung

Seine Intuition allein reichte jedoch nicht aus, um der Idee in der Physik zum Durchbruch zu verhelfen. Erst dem Theoretiker Helmholtz gelang 1847 die allgemeine Formulierung des Energieerhaltungssatzes. Seine im Alter von 26 Jahren verfasste Arbeit wurde allerdings nicht zur Publikation in den Annalen für Physik und Chemie angenommen, und so setzte sich der Energieerhaltungssatz eher zögernd durch. Einsteins Deutung der Beobachtung des britischen Botanikers Robert Brown, dass Bärlappsamen in Wasser wirre Bewegungen ausführen, beeinflusste die Physik zu Beginn des Jahrhunderts fast ähnlich stark wie die Plancksche Strahlungsformel. Nach dem experimentellen Beweis der Theorie der Brownschen Bewegung durch den französischen Physiker Jean-Baptiste Perrin, der 1926 den Physik-Nobelpreis erhielt, akzeptierten auch skeptische Physiker das Konzept der atomistischen Struktur der Materie. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Proton-Paradoxon: Sind Physiker auf unbekanntes Naturgesetz gestoßen?

Heidelberg. Zwei Experimente lieferten verschiedene Werte für den Radius des Protons. Messfehler halten die Physiker mittlerweile für praktisch ausgeschlossen. Sind sie auf ein bislang unbekanntes physikalisches Phänomen gestoßen?

Das Proton muss doch längst perfekt verstanden sein! Es ist einer der Hauptbestandteile aller Materie, die uns umgibt, der Brennstoff der Sterne im Universum. Es ist der positiv geladene Kern des Wasserstoffatoms, des am besten untersuchten Atoms überhaupt. Das Teilchen wurde in zahllosen Experimenten genauestens vermessen, und auch am Large Hadron Collider (LHC) des europäischen Teilchenforschungszentrums CERN bei Genf sind es Protonen, die wir bei höchsten Energien miteinander kollidieren lassen, um neue Teilchen wie das Higgs-Boson entstehen zu lassen.

Kann das Proton also keine Überraschungen mehr für uns bereithalten? Weit gefehlt. Zusammen mit anderen Physikern haben Jan Bernauer und Randolf Pohl, die Autoren von “Das Proton-Paradox”, Titelgeschichte der April-Ausgabe 2014 von Spektrum der Wissenschaft, in den letzten Jahren die bislang präzisesten Messungen des Radius dieses Partikels vorgenommen. Anfangs erwarteten sie, durch die zwanzigfach höhere Genauigkeit dem lange bekannten Wert des Protonenradius lediglich die eine oder andere Nachkommastelle hinzuzufügen. Das war ein Irrtum. Vielmehr lieferten die beiden Experimente, bei denen unterschiedliche Messverfahren zum Einsatz kamen, zwei Werte, die deutlich voneinander abweichen: nämlich um mehr als das Fünffache der so genannten kombinierten Messunsicherheit. Die Wahrscheinlichkeit, dass dies nur ein Zufall ist, beträgt weniger als eins in einer Million.

Während Jan Bernauer seine Messungen als Doktorand am Institut für Kernphysik der Universität Mainz durchführte – heute forscht er am Laboratory for Nuclear Science des Massachusetts Institute of Technology in Boston –, arbeitete Randolf Pohl vom Max-Planck-Institut für Quantenoptik in Garching an einem Beschleuniger des Paul Scherrer Instituts im schweizerischen Villigen. Immer neue technische und organisatorische Probleme hatten die Realisierung des neuartigen Messverfahrens, auf das er seine Hoffnungen setzte, auf Jahre verzögert. Statt mit gewöhnlichem Wasserstoff arbeitete er mit Wasserstoff, in dem statt eines Elektrons dessen 200-mal schwerer Vetter, ein Myon, das Proton umkreist.

Als aber endlich doch alles funktionierte, war das Resultat frustrierend: Die Forscher maßen kein einziges Signal. “Wir überlegten fieberhaft”, berichtet Pohl. “Könnten die Ursachen unseres Problems tiefer liegen als wir bis dahin vermutet hatten? Was wäre denn, wenn wir nach dem Protonenradius an der falschen Stelle, also bei den falschen Wellenlängen unseres Lasers, suchten? Wir beschlossen, unseren Suchradius zu erweitern. Doch in welche Richtung? Gemeinsam fassten wir den Entschluss, nach einem größeren Protonenradius Ausschau zu halten. Doch etwas später an diesem Abend kam mein Kollege Aldo Antognini in den Kontrollraum des Beschleunigers und meinte, wir sollten stattdessen nach einem kleineren Protonenradius suchen. Zu diesem Zeitpunkt arbeiteten wir längst in 20-Stunden-Schichten.”

Da den Forschern die ihnen am Beschleuniger zugestandene Zeit davonlief, steuerten sie die experimentellen Parameter schließlich sogar in Richtung noch kleinerer Werte, als jemals vermutet worden waren. Dann die Überraschung: Die ersten Hinweise auf ein Signal tauchten auf! Die Wissenschaftler waren elektrisiert – doch das Ergebnis wich um vier Prozent von bisherigen Messungen ab; eine drastische Diskrepanz. Das Proton im myonischen Wasserstoff war deutlich kleiner als irgendjemand erwartet hätte.

In der Forschergemeinde verursachte dies einige Aufregung. Die meisten Physiker glaubten zwar schlicht, dass ein Fehler im Spiel sein müsste. Schon bald meldete sich eine ganze Reihe von ihnen mit Vorschlägen, wo er stecken könnte. Doch eine Erklärung nach der anderen schlug fehl – und jedes Mal wuchs die Bedeutung der Messergebnisse.

Mittlerweile glauben die meisten Forscher, dass die Diskrepanz tatsächlich existiert, und arbeiten an neuen, noch präziseren Experimenten. Ihre große Hoffnung: Die Ergebnisse von Bernauer und Pohl könnten auf bislang unbekannte Naturgesetze hindeuten, indem sie Hinweise auf Teilchen und Kräfte liefern, die über das so genannte Standardmodell der Teilchenphysik hinausgehen. Vielleicht enthält das Universum ja ein bislang unentdecktes Elementarteilchen, das mit Myonen anders wechselwirkt als mit Elektronen? Denn das Myon hat sich auch an anderer Stelle verdächtig gemacht: Messungen seines so genannten magnetischen Moments passen nicht zu den theoretischen Berechnungen.

Im besten Fall stoßen die Wissenschaftler in den kommenden Jahren sogar auf eine Antwort, die beide Rätsel auf einen Schlag löst.  (Quelle: Spektrum der Wissenschaft, April 2014)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Gigantische Versuchsanordnung im arktischen Eis findet Geisterteilchen

Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.  (c) Foto: IceCube Collaboration/NSF
Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.
(c) Foto: IceCube Collaboration/NSF

Darauf hat die IceCube-Kollaboration seit Jahren hingearbeitet. Nun deutet alles darauf hin, dass den Forschern im antarktischen Eis Neutrinos von außerhalb unseres Sonnensystems ins Netz gegangen sind. Unter den gefundenen Ereignissen befinden sich Neutrinos mit Energien, die tausendmal höher sind, als man sie auf der Erde selbst erzeugen kann. Diese kosmischen Neutrinos können einzigartige Informationen über den Aufbau von Supernovas, Gamma-Ray-Blitze oder Schwarzen Löchern liefern.

Das Neutrino-Teleskop IceCube am Südpol ist weltweit einmalig. In einem Kubikkilometer Eis sind insgesamt 5.160 hochempfindliche Lichtsensoren installiert. Wenn doch mal ein Neutrino im Eis wechselwirkt, entstehen geladene Teilchen die mit nahezu Lichtgeschwindigkeiten weiterfliegen. Diese erzeugen ein schwaches bläuliches Licht, das von den Detektoren aufgefangen wird.

„Wir sehen hochenergetische Neutrinos, von denen wir jetzt mit ziemlicher Sicherheit sagen können, dass sie astrophysikalischen Ursprungs sind“, sagt Prof. Dr. Marek Kowalski vom Physikalischen Institut der Universität Bonn. Neutrinos sind ganz besondere Teilchen: Sie können anders als elektromagnetische Strahlung sämtliche Materie durchdringen. Mit ihrer Hilfe lässt sich wie mit einem Röntgenapparat in die verstecktesten Winkel des Universums blicken. Allerdings wechselwirken diese Teilchen kaum und könnten selbst von einer Bleiabschirmung mit 1000 Kilometer Dicke nicht aufgehalten werden. Ihr Nachweis ist deshalb besonders schwierig. Mit der gigantischen Messeinrichtung „IceCube“ in der Antarktis sind nun dennoch zum ersten Mal Hinweise für hochenergetische Neutrinos aus dem Weltall gefunden worden.

Die meisten Neutrinos auf der Erde entstehen bei niedrigen Energien durch Kernfusion in der Sonne, sie können sich aber auch in der Erdatmosphäre bilden. Die Forscher des IceCube Projektes interessieren sich aber besonders für hochenergetische Neutrinos aus astrophysikalischen Quellen – zum Beispiel von Supernovas, Gamma-Ray-Blitzen oder galaktischen Schwarzen Löchern. Denn Neutrinos sind die einzigen Teilchen, die aus dem Inneren dieser Quellen entkommen können und damit einzigartige Informationen über ihren Aufbau liefern.

Morgendämmerung für ein neues Zeitalter der Astronomie

Gelungen ist der Nachweis der Neutrinos einem internationalen Team von rund 250 Wissenschaftlern und Ingenieuren der IceCube-Kollaboration unter Beteiligung der Astroteilchen-Gruppe von Prof. Kowalski. Mit der gigantischen Versuchsanordnung im antarktischen Eis wurden in den vergangenen zwei Jahren insgesamt 28 Neutrinos mit Energien größer als 30 Tera-Elektronenvolt (TeV), darunter zwei Ereignisse mit über 1000 TeV registriert. Dieser Fund war für die Forscher so bedeutsam, dass die Teilchen sogar eigene Namen bekamen: Ernie & Bert – den beiden beliebten Figuren aus der Fernsehserie „Sesamstraße“.

Mit der verbesserten Analyse der Daten, die nun auch die Richtung der Neutrinos liefert, konnten nicht nur diese beiden, sondern ein Großteil dieser Teilchen als potentielle kosmische Fernreisende identifiziert werden. „Das ist der erste Hinweis auf hochenergetische Neutrinos, die von außerhalb unseres Sonnensystems kommen“, sagt Prof. Dr. Francis Halzen, Projektleiter des IceCube-Experiments von der Universität Wisconsin-Madison (USA). „Dies ist die Morgendämmerung für ein neues Zeitalter der Astronomie.“

Ein Rätsel bleiben jedoch noch die Quellen, aus denen die Neutrinos im Weltraum stammen. Eine Möglichkeit sind Supernovas, bei denen die hochenergetischen Teilchen freigesetzt werden. Das Bild, das sich aus dem IceCube-Experiment abzeichnet, stellt sich für die Wissenschaftler noch verschwommen dar. „Wir können die kosmischen Quellen der Teilchen noch nicht nachweisen, weil wir bislang nicht exakt genug bestimmen konnten, aus welcher Richtung die Neutrinos aus dem Weltall in das Eis eindringen“, erklärt Prof. Kowalski. Die Forscher hoffen darauf, demnächst noch mehr Teilchen nachzuweisen, damit sich die Quellen allmählich schärfer abzeichnen.

Publikation: Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detector, Science, DOI: 10.1126/science.1242856

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Der Anfang allen Seins

Die moderne Kosmologie geht davon aus, dass unser Universum aus dem Nichts entstanden ist. Wenn man so eine Aussage liest oder hört, drängt sich sofort die Frage auf, wie denn aus nichts etwas entstehen kann. Nicht nur das physikalische Prinzip, dass es zu jedem physischen Ereignis eine physische Ursache geben muss, sondern auch der »gesunde Menschenverstand« lässt die Aussage eher als eine philosophische Idee erscheinen und weniger als eine wissenschaftlich fundierte Theorie. Eine wissenschaftliche Theorie muss empirisch überprüfbar sein. Wie kann aber der Anfang allen Seins durch ein Experiment überprüft werden? Welche Fakten sprechen für den Beginn von Raum, Zeit und Materie aus dem Nichts?
Trotz der Zweifel gibt es gute und rational nachvollziehbare Gründe, von einem Beginn des Universums aus dem Nichts auszugehen. Den Beginn, kurz Urknall, darf man sich nicht als eine riesige Explosion im Weltall vorstellen. Der Urknall ist ganz unspektakulär ein nicht näher bekannter physikalischer Zustand, bei dem Raum und Zeit sowie die beteiligten Energien in einem winzigen Bereich extrem hoher Dichte zusammenfallen (Singularität). Wenn die Theorie richtig ist, dann existierte das Weltall vor der Singularität genauso wenig, wie es davor Materie gab. Auch Zeit hätte ihren Ursprung erst im Urknall.
Der englische Astronom Fred Hoyle, der Anhänger eines ewigen, statischen Universums war, wollte durch die unwissenschaftliche Bezeichnung Urknall (engl. »Big Bang«) die Theorie der Urknall-Verfechter unglaubwürdig erscheinen zu lassen. Zu diesen Verfechtern gehörte sein belgischer Kollege, der Theologe und Astrophysiker, Georges Lemaître. Hoyle sprach sich dafür aus, dass sich das Universum in einem Zustand der Gleichförmigkeit (Steady-State-Theorie) ohne Anfang und ohne Ende befinde.
Wie begründete Lemaître die Idee vom Anfang allen Seins aus dem Nichts? Handelte es sich um seine theologische Vorstellung oder gab es harte Fakten?

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

 

Weltrekord: Quantenteleportation über große Distanzen

Quantenteleportationsexperiment hat neuen Distanzrekord erzielt Foto IQOQI-Vienna

Physiker der Universität Wien und der Österreichischen Akademie der Wissenschaften haben mit einem Quantenteleportations-Experiment zwischen zwei kanarischen Inseln einen neuen Distanzrekord erzielt. Das Experiment ist ein wesentlicher Schritt in Richtung Satelliten-basierte Quantenkommunikation. Die Ergebnisse erscheinen aktuell im renommierten Fachmagazin “Nature” (Advance Online Publication/AOP).

Ein Team um Anton Zeilinger, Professor an der Universität Wien und Direktor des Instituts für Quantenoptik und Quanteninformation der Akademie der Wissenschaften (ÖAW), hat erfolgreich Quantenzustände über eine Distanz von 143 km von La Palma nach Teneriffa übertragen. Dies entspricht der Luftlinie zwischen Wien und Graz. Der alte Rekord, aufgestellt von Forschern in China, lag bei 97 km und war gerade erst ein paar Monate alt. Die Ergebnisse des internationalen Forscherteams sind aktuell in der internationalen Fachzeitschrift “Nature” veröffentlicht worden.

Dem Quanteninternet einen Schritt näher

Den Wissenschaftern ging es aber nicht primär um diesen Rekord: Ihre Experimente ermöglichen eine höhere Datenrate als das chinesische Experiment und könnten damit die Grundlage für ein weltumspannendes Informationsnetzwerk schaffen, in welchem es quantenmechanische Effekte ermöglichen, Nachrichten mit größerer Sicherheit auszutauschen und bestimmte Berechnungen effizienter durchzuführen als dies mit konventionellen Technologien möglich ist. In einem solchen zukünftigen “Quanteninternet” wird die Quantenteleportation ein zentrales Protokoll für die Übermittlung von Information zwischen Quantencomputern sein.

In einem Quantenteleportations-Experiment können Quantenzustände – nicht aber Materie – zwischen zwei Parteien über an sich beliebige Distanzen ausgetauscht werden. Der Prozess funktioniert selbst wenn der Ort des Empfängers nicht bekannt ist. Ein solcher Austausch kann entweder dem Übermitteln von Nachrichten dienen, oder in künftigen Quantencomputern eingesetzt werden. In solchen Anwendungen müssen jedoch die Lichtquanten (oder Photonen), welche die Quantenzustände kodieren, zuverlässig über weite Distanzen transportiert werden, ohne dass ihr empfindlicher Quantenzustand zerstört wird. Das Experiment der Wiener Physiker, in welchem sie eine für Teleportation taugliche Quantenverbindung über deutlich mehr als 100 km hergestellt haben, eröffnet nun neue Horizonte.

Quantenteleportation über große Distanz nun möglich

Xiao-Song Ma, einer der verantwortlichen Mitarbeiter dieser Studie erklärt: “Eine Quantenteleportation über eine Distanz von 143 km durchzuführen war eine enorme technische Herausforderung”. Die Photonen mussten direkt durch die turbulente Atmosphäre zwischen den beiden Inseln geschickt werden. Der Einsatz von Glasfasern für Teleportations-Experimente ist über diese Distanzen nicht möglich – der Signalverlust wäre zu groß. Um ihr Ziel zu erreichen, mussten die Wissenschafter eine ganze Reihe von technischen Innovationen aufbieten. Unterstützung haben die Wiener Physiker dabei von einer Theoriegruppe am Max-Planck-Institut für Quantenoptik in Garching (D) und von einer experimentellen Gruppe an der University of Waterloo (Kanada) erhalten. “Ein entscheidender Schritt zu unserer erfolgreichen Teleportation war eine Methode namens ‘Active Feed-Forward’, die wir zum ersten Mal in einem solchen Langstreckexperiment eingesetzt haben und dank der wir die Übertragungsrate verdoppeln konnten”, sagt Ma. Dabei werden parallel zur Quanteninformation konventionelle Daten geschickt, die es dem Empfänger wesentlich erleichtern, die transferierte Information zu entschlüsseln.

Nächster Schritt: Quantensatellit für weltumspannendes Experiment

“Unser Experiment zeigt, wie reif ‘Quantentechnologien’ heutzutage sind und wie nützlich sie für praktische Anwendungen sein können”, so Anton Zeilinger. Sein Blick ist nun nach oben gerichtet: “Der nächste Schritt ist Satelliten-basierte Quantenteleportation, womit dann Quantenkommunikation auf einer globalen Skala realisierbar sein sollte. Wir haben nun einen großen Schritt in diese Richtung genommen und werden unser Know-how in eine internationale Kooperation einbringen, an welcher auch unsere Kollegen von der Chinesischen Akademie der Wissenschaften beteiligt sind. Das Ziel ist, einen gemeinsamen Quantensatelliten ins All zu schießen.”

Rupert Ursin, der seit 2002 mit Zeilinger an Langstreckenexperimenten arbeitet, ergänzt: “Hinsichtlich zukünftiger Experimente in denen wir entweder Signale zwischen der Erde und Satelliten austauschen oder von einem Satelliten zu einem anderen schicken werden, sind unsere neuesten Resultate sehr ermutigend.” Die Umlaufbahnen von Satelliten im sogenannten “Low-Earth Orbit” verlaufen zwischen 200 bis 1200 km über der Erdoberfläche. (Die Internationale Raumstation ISS, zum Beispiel, kreist in einer Höhe von rund 400 km.) “Auf dem Weg durch die Atmosphäre von La Palma nach Teneriffa sind unsere Signale um ein rund Tausendfaches abgeschwächt worden. Trotzdem haben wir es geschafft, ein Teleportations-Experiment durchzuführen. In Satelliten-basierten Experimenten werden die Strecken, die wir zurücklegen müssen, zwar länger sein, aber es wird weniger Atmosphäre zu durchqueren sein. Wir haben nun eine grundsolide Basis für solche Experimente geschaffen.” (Quelle: idw; Foto: IQOQI/Vienna – Quantenteleportationsexperiment hat neuen Distanzrekord erzielt)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Überraschendes Experiment: Neutrinos schneller als das Licht?



Unter der Leitung des Berner Teilchenphysikers Antonio Ereditato hat eine internationale Forschungskollaboration im OPERA-Experiment am CERN Erstaunliches entdeckt: Neutrinos sind schneller unterwegs als das Licht, welches bisher die höchste existierende Geschwindigkeit war.

«Dieses Resultat ist eine komplette Überraschung», sagt Antonio Ereditato, Professor für Hochenergiephysik an der Universität Bern und Leiter des OPERA-Projekts: Die Teilchenphysiker haben im sogenannten OPERA-Experiment herausgefunden, dass Neutrinos, die unterirdisch vom CERN in Genf losgeschickt werden und nach einer 730 Kilometer langen Reise durch die Erde schliesslich ein Untergrund-Labor in den Bergen bei Rom erreichen, schneller unterwegs sind als das Licht. Dies teilt das CERN, das Europäische Laboratorium für Teilchenphysik, heute Freitag, 23. September 2011, mit. «Die Neutrinos sind signifikante 60 Nanosekunden schneller am Ziel, als man dies mit Lichtgeschwindigkeit erwarten würde», so der OPERA-Leiter. Eine Publikation der Daten folgt, und Antonio Ereditato stellt klar: «Dieses Ergebnis kann grosse Auswirkungen auf die geltende Physik haben – so gross, dass zurzeit eine Interpretation schwierig ist. Weitere Experimente für die Bestätigung dieser Daten müssen unbedingt folgen.»

Die Besonderheiten der Neutrinos

Neutrinos sind winzige Elementarteilchen, die Materie praktisch widerstandslos durchdringen. Ihre Spuren sind schwierig aufzuspüren, da sie nicht geladen sind und kaum mit ihrer Umgebung interagieren. Neutrinos kommen in drei verschiedenen Typen vor: Elektron-, Müon- und Tau-Neutrinos. Sie können sich auf einer langen Flugstrecke von einem Typ in einen anderen verwandeln. In der Elementarteilchenphysik wird diese Umwandlung «Neutrino-Oszillation» genannt.

Das OPERA-Projekt wurde 2006 gestartet, um die Umwandlung von verschiedenen Neutrino-Typen ineinander zu beweisen – was den Forschenden aus der Kollaboration von 13 Ländern auch gelang; letztes Jahr wurde die Verwandlung von Müon-Neutrinos in Tau-Neutrinos nachgewiesen.

Mit Atomuhren auf Nanosekunden genau

Die Daten, die im OPERA-Experiment in den letzten drei Jahren gesammelt wurden, weisen neben der Neutrino-Oszillation nun auch die Abweichung bei der erwarteten Geschwindigkeit der Kleinstteilchen nach: Eine aufwändige und hochpräzise Analyse von über 15’000 Neutrinos weist «die winzige, aber signifikante Differenz zur Lichtgeschwindigkeit nach», wie das CERN mitteilt. Die 60 Nanosekunden Zeitunterschied auf der Strecke CERN-Rom hat die OPERA-Kollaboration mit Expertinnen und Experten vom CERN sowie unter anderem mit Hilfe des nationalen Metrologieinstituts METAS in einer Hochpräzisions-Mess-Serie überprüft: Mit Hilfe von GPS und Atomuhren wurde die Flugdistanz auf 10 Zentimeter genau bestimmt und die Flugzeit auf 10 Milliardstel einer Sekunde – also auf Nanosekunden – genau gemessen. (Quelle: idw)

Buchtipp:
Supervereinigung: Wie aus nichts alles entsteht. Ansatz einer großen einheitlichen Feldtheorie

Supernovae-Explosion: Wie das Weltall vermessen wird

NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory
NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory

Vom genauen Mechanismus hängt es ab, wie gut wir das Verhalten unseres Universums verstehen
Manche Sterne beenden ihr Dasein mit einem enormen Knall: Binnen Stunden steigern sie ihre Helligkeit um das Millionen- oder gar Milliardenfache und leuchten für einige Tage so hell wie eine ganze Galaxie. Astronomen entdecken jedes Jahr mehrere hundert solcher Supernovae, die zumeist in entlegenen Winkeln des Universums aufleuchten.

Supernovae künden aber nicht nur vom gewaltsamen Ende eines Sterns, sondern erweisen sich auch als wichtige Hilfsmittel für die Vermessung des Weltalls. Denn ein spezieller Typ dieser Sternexplosionen, genannt Ia, erreicht stets die gleiche Maximalhelligkeit. Gelingt es, dieses Maximum zu beobachten, dann folgt aus der gemessenen Helligkeit der Supernova direkt ihre Entfernung. Denn so, wie der fernere zweier gleich heller Autoscheinwerfer einem Beobachter lichtschwächer erscheint, verhält es sich auch mit Supernovae: Je größer ihre Distanz zur Erde ist, umso weniger hell erscheinen sie.

Die Entfernungsbestimmung mit Supernovae vom Typ Ia klappt so gut, dass sie sich als Maßstab oder Standardkerze zur Auslotung des Universums verwenden lassen. Seit rund achtzig Jahren ist bekannt, dass sich das Weltall ausdehnt. Aber erst vor wenigen Jahren fanden die Astronomen heraus, dass sich diese Ausdehnung sogar beschleunigt– ein Befund, der sich anhand der Distanzen der Supernovae vom Typ Ia ergab. Um diese Beschleunigung zu erklären, mussten die Wissenschaftler die Existenz einer ominösen »Dunklen Energie« annehmen, die das Universum beschleunigt auseinandertreibt.

Wegen der kosmologischen Bedeutung dieses Supernova-Typs interessieren sich die Astronomen für die Ursachen und den Ablauf der Sternexplosionen. Zwei Arten von Explosionen sind bekannt, in denen jeweils so genannte Weiße Zwerge eine Rolle spielen. Weiße Zwerge bilden das Endstadium verbrauchter Sterne ähnlich unserer Sonne. Bei der einen Art saugt ein Weißer Zwerg Materie von seinem Partnerstern ab. Er macht dies solange, bis er sich gewissermaßen überfressen hat und er von einer thermonuklearen Explosion zerrissen wird. Dies passiert stets mit der gleichen Maximalhelligkeit. Bei der anderen Art bilden zwei Weiße Zwerge ein Doppelsternpaar und verschmelzen schließlich, wobei es ebenfalls zur Supernovaexplosion kommt. Hier hängt die Maximalhelligkeit von der jeweiligen Masse der Weißen Zwerge ab. Die Astronomen besaßen Hinweise darauf, dass die erste Art deutlich häufiger vorkommt und sich Supernovae vom Typ Ia deshalb als Standardkerzen verwenden lassen.

Neue Untersuchungen von Astronomen des Max-Planck-Instituts für Astrophysik in Garching bei München belegen nun, dass nur fünf Prozent aller Supernovaexplosionen vom Typ Ia in elliptischen Galaxien auf Materie aufsammelnde Weiße Zwerge zurückgehen. Offenbar geht der größte Teil der gewaltigen Sternexplosionen auf die Vereinigung zweier Weißer Zwerge zurück, wie der Physiker Jan Hattenbach im aktuellen Mai-Heft der Zeitschrift “Sterne und Weltraum” berichtet. Dieser Befund schränkt allerdings die Verwendung der Supernovae vom Typ Ia als Standardkerzen ein. Denn nun erwarten die Astronomen, dass die Maximalhelligkeiten wegen der unterschiedlichen Massen der Weißen Zwerge bei ihrer Verschmelzung unterschiedlich ausfallen. Spannend ist jetzt, wie sich diese Erkenntnis auf die Messung der beschleunigten Expansion des Raums auswirkt. Quelle: Sterne und Weltraum, Mai 2010 – Bild: Zwei weiße Zwerge, die sich zunehmend enger umkreisen, verschmelzen schließlich was eine Supernova-Explosion zur Folge hat. (c) NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory

Dunkle Energie: Welches Schicksal erwartet unser Universum?

Geheimnisse des Universums: Dunkle Energie

Umstrittene Dunkle Energie

Gibt es eine Alternative, die beschleunigte Expansion des Weltalls zu erklären?
Das Universum scheint sich beschleunigt auszudehnen. Ursache dafür soll eine seltsame neue Energieform sein, Fachleute nennen sie die Dunkle Energie. Das Problem: Niemand weiß wirklich, was diese Dunkle Energie wirklich ist. Bisher suchen sie jedenfalls vergeblich nach Erklärungen für das rätselhafte Verhalten des Kosmos.

Kein Wunder, dass immer wieder alternative Modelle entwickelt werden, um vielleicht ohne exotischen Energieformen auszukommen. Wie zwei Kosmologen von der Oxford University im aktuellen August-Heft von “Spektrum der Wissenschaft” in der Titelgeschichte beschreiben, könnte ein solches Alternativmodell so aussehen: Falls wir kosmisch gesehen inmitten einer Region leben, in der weniger Sterne und andere Materie zu finden sind als anderswo, dann würde sich der astronomische Befund vom gleichmäßig beschleunigten Universum anders darstellen. Dann variiert nämlich die kosmische Expansionsrate mit dem Ort – und das würde den Astronomen eine kosmische Beschleunigung nur vorspiegeln, ohne es wirklich zu sein.

Könnte es also sein, dass wir im Universum nicht in einer gleich verteilten Ansammlung von Sternen und Galaxien leben, wie das kosmische Standardmodell annimmt? Eine riesige Leere um die Erde und ihr Milchstraßensystem herum kommt den meisten Kosmologen deshalb auch sehr unwahrscheinlich vor, doch einige Forscher ziehen sie der mysteriösen Dunklen Energie vor. Was spricht dafür? Was spricht dagegen?

Die Entdeckung des beschleunigten Universums kündigte sich vor vor elf Jahren an. Aus einer winzigen Abweichung in der Helligkeit explodierender Sterne folgerten die Astronomen, sie hätten keine Ahnung, woraus über 70 Prozent des Kosmos bestehen. Sie konnten nur feststellen, dass der Raum anscheinend von einer ganz unvergleichlichen Substanz erfüllt wird, welche die Expansion des Universums nicht bremst, sondern vorantreibt. Diese Substanz erhielt damals den Namen Dunkle Energie.

Inzwischen ist ein Jahrzehnt vergangen, und die Dunkle Energie gibt noch immer so viele Rätsel auf, dass einige Kosmologen die grundlegenden Postulate, aus denen ihre Existenz gefolgert wurde, in Zweifel ziehen. Eines dieser Postulate ist das kopernikanische Prinzip. Ihm zufolge nimmt die Erde keinen zentralen oder sonst wie ausgezeichneten Platz im All ein. Wenn wir dieses Grundprinzip preisgeben, bietet sich eine überraschend einfache Erklärung für die neuen Beobachtungen an.

Wir haben uns längst an die Idee gewöhnt, dass unser Planet nur ein winziger Fleck ist, der irgendwo am Rand einer durchschnittlichen Galaxie einen typischen Stern umkreist. Nichts scheint unseren Ort inmitten von Milliarden Galaxien, die sich bis an unseren kosmischen Horizont erstrecken, besonders auszuzeichnen. Doch woher nehmen wir diese Bescheidenheit? Und wie könnten wir herausfinden, ob wir nicht doch einen speziellen Platz einnehmen? Meist drücken sich die Astronomen um diese Fragen und nehmen an, unsere Durchschnittlichkeit sei offensichtlich genug. Die Idee, wir könnten tatsächlich einen besonderen Ort im Universum bewohnen, ist für viele undenkbar. Dennoch ziehen einige Physiker dies seit Kurzem in Betracht.

Zugegeben: Die Annahme, wir seien kosmologisch unbedeutend, erklärt viel. Mit ihrer Hilfe können wir von unserer kosmischen Nachbarschaft auf das Universum im Großen und Ganzen schließen. Alle gängigen Modelle des Universums beruhen auf dem kosmologischen Prinzip. Die beschleunigte Expansion war also die große Überraschung, mit der die aktuelle Revolution in der Kosmologie begann.

Angenommen, die Expansion verlangsamt sich überall, weil die Materie an der Raumzeit zieht und sie bremst. Nehmen wir ferner an, dass wir in einer gigantischen kosmischen Leere leben – in einem Gebiet, das zwar nicht völlig leer gefegt ist, wo aber die mittlere Materiedichte nur etwa halb so groß ist wie anderswo. Je leerer eine Raumregion ist, desto weniger Materie bremst dort die räumliche Expansion, und entsprechend höher ist die Expansionsgeschwindigkeit innerhalb des Leerraums. Am höchsten ist sie in der Mitte; zum Rand hin, wo sich die höhere Dichte des Außenraums bemerkbar macht, nimmt sie ab. Zu jedem Zeitpunkt expandieren verschiedene Raumpartien unterschiedlich schnell – wie der ungleichmäßig aufgeblasene Luftballon.

Wie ausgefallen ist diese Idee einer monströsen Abnormität? Auf den ersten Blick sehr. Sie scheint in eklatantem Widerspruch zur kosmischen Hintergrundstrahlung zu stehen, die bis auf Hunderttausendstel genau gleichförmig ist, ganz zu schweigen von der im Großen und Ganzen ebenmäßigen Verteilung der Galaxien. Doch bei näherer Betrachtung muten diese Indizien weniger zwingend an. Die Gleichförmigkeit der Reststrahlung erfordert nur, dass das Universum in jeder Richtung nahezu gleich aussieht. Wenn eine Leere ungefähr kugelförmig ist und wir einigermaßen nahe ihrem Zentrum sitzen, muss sie nicht unbedingt den Beobachtungen widersprechen.

In kommenden Jahren werden Himmelsbeobachtungen zwischen beiden Erklärungen entscheiden.
Quelle: Spektrum der Wissenschaft, August 2009