Schlagwort-Archive: Astrophysik

Geistermaterie lauert in der Milchstraße

Eine mysteriöse Form von Materie durchzieht unser Universum. Sie ist etwa fünf Mal häufiger als die sichtbare Materie, jedoch von nach wie vor unbekannter, „dunkler“ Natur. Dass diese mysteriöse Entität, der man den Namen “Dunkle Materie” oder Geistermaterie gab, existieren muss, belegten Forschungsarbeiten bereits in den 1970er Jahren. Erstmals ist es nun einem internationalen Wissenschaftlerteam gelungen, Dunkle Materie auch im Inneren unserer Galaxie zu belegen. Woraus Dunkle Materie  besteht, konnte allerdings nicht herausgefunden werden.

Die allgegenwärtige Präsenz der Dunklen Materie im Universum ist heute ein zentraler Grundsatz der modernen Kosmologie und Astrophysik. In verschiedenen Galaxien wurde ihre Existenz seit den 1970er Jahren mit einer Reihe von Methoden belegt. Eine dieser Methoden ist die Messung der Drehgeschwindigkeit von Gas und Sternen. Wissenschaftler können so eine Galaxie „wiegen“ und ihre Gesamtmasse bestimmen. Dabei zeigt sich, dass die gewöhnliche Materie nur einen Bruchteil des Gesamtgewichts ausmacht, den überwiegenden Teil trägt die Dunkle Materie bei.

Auch in den äußeren Bereichen unserer eigenen Galaxie, die wir bei klarem Nachthimmel als „Milchstraße“ sehen können, wurden die Astronomen mit diese Methodik fündig. Doch im inneren Bereich unserer Galaxie war es bisher unmöglich, die Anwesenheit Dunkler Materie sicher zu belegen.

Der Durchmesser unserer Galaxie beträgt etwa 100.000 Lichtjahre. Unser Sonnensystem ist etwa 26.000 Lichtjahre vom Zentrum der Milchstraße entfernt. Je näher man der Mitte kommt, desto schwieriger wird es, die Rotation des Gases und der Sterne mit der benötigten Genauigkeit zu messen.

Auf Basis der Messung von Sternenbewegungen haben nun Wissenschaftler der Technischen Universität München (TUM), der Universität Stockholm, der Freien Universität Madrid, des Internationalen Zentrums für Theoretische Physik des Südamerikanischen Instituts für Grundlagenforschung (ICTP-SAIFR) in São Paulo und der Universität Amsterdam erstmalig einen Beweis für die Anwesenheit Dunkler Materie im Inneren der Milchstraße vorgelegt. Dunkle Materie existiert danach auch im Bereich unseres Sonnensystems und in unserer direkten „kosmischen Nachbarschaft“.

In einem ersten Schritt erstellten die Forscher die umfassendste Sammlung veröffentlichter Messungen der Bewegung von Gas und Sternen in der Milchstraße. Dann berechneten sie auf Basis aktuellster Forschungsergebnisse die Rotationsgeschwindigkeit, die die Milchstraße haben müsste, wenn sie nur aus sichtbarer Materie bestünde. Der Vergleich der gemessenen und der berechneten Geschwindigkeit zeigte eindeutig, dass hier die Dunkle Materie einen entscheidenden Beitrag leistet.

„Wir konnten mit unserer Arbeit belegen, dass sich das Gas und die Sterne in unserer Galaxie ohne den Beitrag von Dunkler Materie nicht mit den beobachteten Geschwindigkeiten drehen könnten“, sagt Dr. Miguel Pato, der die Analyse an der TU München durchführte. „Allerdings wissen wir immer noch nicht, aus was die Dunkle Materie besteht. Dies ist eine der wichtigsten Wissenschaftsfragen unserer Zeit“.

Auch für geringe Entfernung vom Zentrum der Milchstraße besitzen die Daten der Forschungsarbeit eine hohe Evidenz. Sie erschließen damit neue Wege zur Bestimmung der Verteilung Dunkler Materie in unserer Galaxie. Zukünftige astronomische Beobachtungen könnten damit die Verteilung der Dunklen Materie in unserer Galaxie mit bisher unerreichter Genauigkeit bestimmen.

„Damit können wir das Verständnis der Struktur und der Entwicklung unserer Galaxie wesentlich verbessern. Und es wird präzisere Vorhersagen für die vielen Experimente ermöglichen, die weltweit nach Teilchen der Dunklen Materie suchen“, sagt Miguel Pato, der inzwischen zum Oskar Klein-Zentrum für Astroteilchen-Physik an der Universität Stockholm gewechselt ist. (Quelle: idw)

Publikation:
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato, Gianfranco Bertone
Nature Physics, advanced online publication, 9 February 2015
DOI: 10.1038/nphys3237 – Link: https://nature.com/articles/doi:10.1038/nphys3237
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Der Anfang allen Seins

Die moderne Kosmologie geht davon aus, dass unser Universum aus dem Nichts entstanden ist. Wenn man so eine Aussage liest oder hört, drängt sich sofort die Frage auf, wie denn aus nichts etwas entstehen kann. Nicht nur das physikalische Prinzip, dass es zu jedem physischen Ereignis eine physische Ursache geben muss, sondern auch der »gesunde Menschenverstand« lässt die Aussage eher als eine philosophische Idee erscheinen und weniger als eine wissenschaftlich fundierte Theorie. Eine wissenschaftliche Theorie muss empirisch überprüfbar sein. Wie kann aber der Anfang allen Seins durch ein Experiment überprüft werden? Welche Fakten sprechen für den Beginn von Raum, Zeit und Materie aus dem Nichts?
Trotz der Zweifel gibt es gute und rational nachvollziehbare Gründe, von einem Beginn des Universums aus dem Nichts auszugehen. Den Beginn, kurz Urknall, darf man sich nicht als eine riesige Explosion im Weltall vorstellen. Der Urknall ist ganz unspektakulär ein nicht näher bekannter physikalischer Zustand, bei dem Raum und Zeit sowie die beteiligten Energien in einem winzigen Bereich extrem hoher Dichte zusammenfallen (Singularität). Wenn die Theorie richtig ist, dann existierte das Weltall vor der Singularität genauso wenig, wie es davor Materie gab. Auch Zeit hätte ihren Ursprung erst im Urknall.
Der englische Astronom Fred Hoyle, der Anhänger eines ewigen, statischen Universums war, wollte durch die unwissenschaftliche Bezeichnung Urknall (engl. »Big Bang«) die Theorie der Urknall-Verfechter unglaubwürdig erscheinen zu lassen. Zu diesen Verfechtern gehörte sein belgischer Kollege, der Theologe und Astrophysiker, Georges Lemaître. Hoyle sprach sich dafür aus, dass sich das Universum in einem Zustand der Gleichförmigkeit (Steady-State-Theorie) ohne Anfang und ohne Ende befinde.
Wie begründete Lemaître die Idee vom Anfang allen Seins aus dem Nichts? Handelte es sich um seine theologische Vorstellung oder gab es harte Fakten?

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

 

Existiert doch keine Dunkle Materie?

ZwerggalaxienDas kosmologische Standardmodell auf dem Prüfstand
Die meisten Astrophysiker und Kosmologen gehen davon aus, dass die so genannte Dunkle Materie den weitaus größten Teil der Materie im Universum stellt. “Normale” Materie, aus der Galaxien ebenso wie Planeten und auch Menschen bestehen, wäre demzufolge relativ selten. Doch es gibt ein Problem: Bislang konnte keines der zahlreichen Experimente, die weltweit nach Dunkle-Materie-Teilchen fahnden, diese auch nachweisen. Existiert die Dunkle Materie vielleicht doch nicht?

In der August-Ausgabe von Spektrum der Wissenschaft berichten die Astrophysiker Pavel Kroupa und Marcel Pawlowski von der Universität Bonn über ihre Forschung an Zwerggalaxien in unserer kosmischen Nachbarschaft. Solche kleinen Galaxien sollten sich gemäß dem kosmologischen Standardmodell, in dem die Dunkle Materie eine der zentralen Rollen spielt, inmitten großräumiger Ansammlungen von Dunkler Materie bilden.
Doch nun ist Kroupas Team, das seine Arbeit jüngst im angesehenen Wissenschaftsjournal “Astronomy and Astrophysics” publiziert hat, auf eine ganze Reihe von Widersprüchen gestoßen. Das Standardmodell sagt beispielsweise voraus, dass die unsere Milchstraße umkreisenden kleinen Satellitengalaxien rein zufällig in deren Umgebung verteilt sein sollten. Stattdessen bilden sie aber eine Art Scheibe, ihre Anordnung folgt also einer klaren Struktur. Auch sagen Simulationen weit mehr Satellitengalaxien vorher, als tatsächlich gefunden wurden. Und schließlich sollten die Satellitengalaxien dem Modell zufolge umso leuchtkräftiger sein, je mehr Dunkle Materie sie enthalten – dies bestätigen die Beobachtungen aber ebenfalls nicht. Im Rahmen der populären Dunklen-Materie Hypothese scheint es keine Lösungen zu diesen Problemen zu geben.
Für die Existenz der rätselhaften Materieform führen die Astronomen zwar gute Gründe an. Beobachtungen von Scheibengalaxien belegen, dass Sterne in deren Außenbereichen schneller um das Zentrum der Galaxien rotieren, als es das newtonsche Gravitationsgesetz vorhersagt. Infolge der dabei entstehenden Fliehkräfte müssten die Galaxien sogar in kürzester Zeit auseinanderfliegen. Erklären lässt sich dieses Rätsel bislang nur, wenn man annimmt, dass die Sternsysteme über wesentlich mehr Masse verfügen als wir beobachten. Diese Masse soll darum von Teilchen beigesteuert werden, die sich praktisch nur durch ihre Schwerkraftwirkung bemerkbar machen, aber kein Licht aussenden – weshalb sie als “dunkle” Materie bezeichnet werden.
Doch mit der Annahme dunkler Materie gerät man nun offenbar an anderer Stelle in große Widersprüche. Gibt es denn eine Alternative? Kroupa und Pawlowski zufolgen richten immer mehr Forscher ihre Hoffnungen auf die so genannte Modifizierte Newtonsche Dynamik (MOND) und ihre Varianten. Zwar ist das Newtonsche Gravitationsgesetz in gewissen Bereichen hervorragend bestätigt. Doch auf der Skala ganzer Galaxien konnte es noch nicht überprüft werden. Möglicherweise, so die Autoren, ist die Schwerkraft auf einer solchen Skala um ein weniges stärker als bislang gedacht. Denn dann ließe sich auch ohne die Annahme Dunkler Materie erklären, warum sich Sterne in den Außenbezirken von Galaxien so schnell bewegen.
“Der Ursprung dieser winzigen Abweichung könnte nach unserer Sicht möglicherweise in quantenmechanischen Prozessen liegen, die sich in der Raumzeit abspielen”, schreiben die Autoren, “oder in der Existenz zusätzlicher, noch unbekannter Felder.” Diese könnten die von Massen verursachten Störungen der Raumzeit weiter tragen, als dies die herkömmliche Theorie voraussagt. Aber auch andere Erklärungen seien denkbar.
Neue Erkenntnisse über die Satellitengalaxien der Milchstraße und anderer Galaxien in der kosmischen Nachbarschaft erhoffen sich die Forscher nun von der GAIA-Satellitenmission der Europäischen Weltraumagentur und vom australischen “Stromlo Milky Way Satellites Survey”. Sie könnten für spannende Erkenntnisse sorgen, schreiben die Bonner Forscher: “Noch ist nichts entschieden, eins aber ist schon jetzt sicher: Die wahre Geschichte des Universums muss erst noch geschrieben werden.”
Quelle: Spektrum der Wissenschaft, August 2010

Abbildung oben
Zwerggalaxien

In dem langen Gezeitenarm (rechts oben im Bild) der miteinander verschmelzenden Mäusegalaxien bilden sich kleine so genannte Gezeitenzwerggalaxien. Der Mechanismus ihrer Entstehung könnte auch vollständig beschreiben, wie sich Satellitengalaxien um unsere Milchsstraße bildete. Dunkle Materie, einer der Stützpfeiler des kosmologischen Standardmodells, wäre für die Erklärung ihrer Existenz dann überflüssig.

© NASA / ESA, H. Ford (JHU), G. Illingworth (UCSC / LO ), M. Clampin (STScI), G. Hartig (STScI) und das ACS Science Team]

Supernovae-Explosion: Wie das Weltall vermessen wird

NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory
NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory

Vom genauen Mechanismus hängt es ab, wie gut wir das Verhalten unseres Universums verstehen
Manche Sterne beenden ihr Dasein mit einem enormen Knall: Binnen Stunden steigern sie ihre Helligkeit um das Millionen- oder gar Milliardenfache und leuchten für einige Tage so hell wie eine ganze Galaxie. Astronomen entdecken jedes Jahr mehrere hundert solcher Supernovae, die zumeist in entlegenen Winkeln des Universums aufleuchten.

Supernovae künden aber nicht nur vom gewaltsamen Ende eines Sterns, sondern erweisen sich auch als wichtige Hilfsmittel für die Vermessung des Weltalls. Denn ein spezieller Typ dieser Sternexplosionen, genannt Ia, erreicht stets die gleiche Maximalhelligkeit. Gelingt es, dieses Maximum zu beobachten, dann folgt aus der gemessenen Helligkeit der Supernova direkt ihre Entfernung. Denn so, wie der fernere zweier gleich heller Autoscheinwerfer einem Beobachter lichtschwächer erscheint, verhält es sich auch mit Supernovae: Je größer ihre Distanz zur Erde ist, umso weniger hell erscheinen sie.

Die Entfernungsbestimmung mit Supernovae vom Typ Ia klappt so gut, dass sie sich als Maßstab oder Standardkerze zur Auslotung des Universums verwenden lassen. Seit rund achtzig Jahren ist bekannt, dass sich das Weltall ausdehnt. Aber erst vor wenigen Jahren fanden die Astronomen heraus, dass sich diese Ausdehnung sogar beschleunigt– ein Befund, der sich anhand der Distanzen der Supernovae vom Typ Ia ergab. Um diese Beschleunigung zu erklären, mussten die Wissenschaftler die Existenz einer ominösen »Dunklen Energie« annehmen, die das Universum beschleunigt auseinandertreibt.

Wegen der kosmologischen Bedeutung dieses Supernova-Typs interessieren sich die Astronomen für die Ursachen und den Ablauf der Sternexplosionen. Zwei Arten von Explosionen sind bekannt, in denen jeweils so genannte Weiße Zwerge eine Rolle spielen. Weiße Zwerge bilden das Endstadium verbrauchter Sterne ähnlich unserer Sonne. Bei der einen Art saugt ein Weißer Zwerg Materie von seinem Partnerstern ab. Er macht dies solange, bis er sich gewissermaßen überfressen hat und er von einer thermonuklearen Explosion zerrissen wird. Dies passiert stets mit der gleichen Maximalhelligkeit. Bei der anderen Art bilden zwei Weiße Zwerge ein Doppelsternpaar und verschmelzen schließlich, wobei es ebenfalls zur Supernovaexplosion kommt. Hier hängt die Maximalhelligkeit von der jeweiligen Masse der Weißen Zwerge ab. Die Astronomen besaßen Hinweise darauf, dass die erste Art deutlich häufiger vorkommt und sich Supernovae vom Typ Ia deshalb als Standardkerzen verwenden lassen.

Neue Untersuchungen von Astronomen des Max-Planck-Instituts für Astrophysik in Garching bei München belegen nun, dass nur fünf Prozent aller Supernovaexplosionen vom Typ Ia in elliptischen Galaxien auf Materie aufsammelnde Weiße Zwerge zurückgehen. Offenbar geht der größte Teil der gewaltigen Sternexplosionen auf die Vereinigung zweier Weißer Zwerge zurück, wie der Physiker Jan Hattenbach im aktuellen Mai-Heft der Zeitschrift “Sterne und Weltraum” berichtet. Dieser Befund schränkt allerdings die Verwendung der Supernovae vom Typ Ia als Standardkerzen ein. Denn nun erwarten die Astronomen, dass die Maximalhelligkeiten wegen der unterschiedlichen Massen der Weißen Zwerge bei ihrer Verschmelzung unterschiedlich ausfallen. Spannend ist jetzt, wie sich diese Erkenntnis auf die Messung der beschleunigten Expansion des Raums auswirkt. Quelle: Sterne und Weltraum, Mai 2010 – Bild: Zwei weiße Zwerge, die sich zunehmend enger umkreisen, verschmelzen schließlich was eine Supernova-Explosion zur Folge hat. (c) NASA / Tod Strohmayer, GSFC / Dana Berry, Chandra X-Ray Observatory

Dunkle Energie: größtem Rätsel der Astrophysik auf der Spur

Video: Dunkle Materie dunkle Energie

Ist die Dunkle Energie der fundamentale Baustein des Universums oder ist es Bewusstsein, wie im Buch “Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen” dargestellt? Oder hängt beides womöglich zusammen? Das astrophysikalische Institut in Potsdam (AIP) wird ab 2010 verstärkt nach der geheimnisvollen dunklen Energie fahnden und zur Lösung der Rätsel durch einen innovativen Multikanalspektrographen beitragen.

(idw), Am dunklen Nachthimmel über West-Texas beobachtet das 9.2m große Hobby-Eberly Teleskop (HET) des McDonald Observatoriums die Tiefen des Weltalls. Es ist einem der größten Rätsel der Astrophysik auf der Spur: der sogenannten “Dunklen Energie”, einem Phänomen das eng mit der Zukunft unseres Weltalls verknüpft ist. Die Wissenschaftler wollen nun durch die Vermessung von Millionen Galaxien erstmals Näheres über die Eigenschaften der mysteriösen Dunklen Energie in Erfahrung bringen . Ein speziell am Astrophysikalischen Institut Potsdam (AIP) entwickeltes Glasfaserbündel ermöglicht die gleichzeitige Erfassung und Spektroskopie von hunderten von Punkten eines Himmelsauschnitts für dieses ehrgeizige Projekt. Um die Entfernungen zu den Galaxien bestimmen zu können, müssen die Astronomen diese Objekte nicht nur finden, sondern ihr Licht auch spektroskopisch analysieren, d.h. in seine Anteile verschiedener Wellenlängen zerlegen. Dafür wird das Teleskop mittels des Faserbündels an einen leistungsfähigen Multikanalspektrographen (genannt VIRUS) angeschlossen. Ein Prototyp des VIRUS Faserbündels und des Spektrographen wurde nun erstmals erfolgreich am Teleskop eingesetzt. Ab 2010 soll eine großräumige Durchsuchung des Himmels beginnen.

“Wenn es gelingt, die statistische Verteilung von entfernten Galaxien in Raum und Zeit zu bestimmen, so lässt dies Rückschlüsse auf die Natur der Dunklen Energie zu”, erklärt Andreas Kelz, der als Wissenschaftler des AIP an der Entwicklung des Instruments beteiligt ist. Bis vor kurzen glaubten Astronomen, dass es für das Schicksal des Universums zwei mögliche Szenarien gibt: Entweder enthält das Universum so viel Materie, dass ihre Anziehungskraft die gegenwärtig zu beobachtende Ausdehnung bremst und das Universum letztendlich in sich kollabieren läßt, oder die Expansion geht, wenn auch verlangsamt, unendlich weiter.

Neuere Beobachtungen hingegen legen nahe, dass sich das Universum vielmehr beschleunigt ausdehnt, es also eine Art Anti-Schwerkraft gibt, welche das Universum auseinandertreibt. Diese ‘Dunkle Energie’ genannte Kraft ist noch völlig unverstanden, auch wenn angenommen wird, dass sie 70% der Gesamtenergie des Universums ausmacht.
“Die Idee einer Energie, welche der Schwerkraft entgegenwirkt ist nicht neu.”, berichtet Matthias Steinmetz, wiss. Vorstand des AIP und Co-Ermittler. “Bereits Einstein postulierte sie 1920, hatte seine kosmologische Konstante dann aber wieder als ‘größte Eselei’ seines Lebens verworfen. Durch die aktuellen Messungen bekommt sie aber wieder neue Brisanz.”