Archiv der Kategorie: Physik u.Kosmos

Quantenphysik, Raum und Zeit, Kosmologie

Physik sorgt für Entwicklungsschub in der Biologie

Geschichte der Biophysik

Physik und Biologie haben gemeinsame Wurzeln und haben sich oft gegenseitig inspiriert. Neue physikalische Messmethoden führten zu einem Entwicklungsschub in der Biologie und Beobachtungen der Biologen dienten als Denkanstöße in der Physik.

Kann die Physik auch prinzipielle Fragen der Biologie klären? Einige Experten hegten einst starke Zweifel. So erklärte der französische Genetiker und Medizin-Nobelpreisträger von 1965, Jacques Monod, lange Zeit, dass Leben zwar mit den Gesetzen der Physik kompatibel sei, aber nicht durch physikalische Gesetze kontrolliert werde. Ernst Walter Mayr, der große Entwicklungsbiologe, behauptete, Physik spiele in der Biologie überhaupt keine Rolle und habe praktisch nichts zur Deutung lebender Materie beigetragen. Die historischen Beispiele zeigen jedoch das Gegenteil.

Mit Physik die Zelle entdecken

Ein erster Begründer der modernen Biologie war der Delfter Kaufmann und Hobbyforscher Antoni van Leeuwenhoek, der um 1670 einfache Mikroskope baute, mit denen er eine bis zu 200-fache Vergrößerung erreichte. Die Mikroskope bestanden aus einer auf einem Kupferring ruhenden Glaskugel, als Beleuchtung diente eine Kerze. Leeuwenhoek beobachtete damit erstmals lebende Zellen – wahrscheinlich sogar große Bakterien.

Historische Skizze des Mikroskops von Robert Hooke.
Mikroskop nach Hooke

Als zweiter Entdecker der Zelle kann der englische Physiker Robert Hooke angesehen werden. Der Experimentator, dessen Name vor allem durch sein Gesetz der Elastizität bekannt ist, beobachttee im 17. Jahrhundert die Struktur von Kork und prägte den Begriff der Zelle. Seine und Leeuwenhoeks Beobachtungen über die Existenz und Bewegung von Zellen wurden von den Biologen lange als Spielerei abgetan und so dauerte es noch gut 200 Jahre, bis die Idee der Zelle vollständig akzeptiert wurde.

Physikalische Prinzipien in der Biologie

Weitere Pioniere der Biophysik waren Thomas Young und Hermann von Helmholtz, die beide über die Medizin zur Physik kamen. Der Augenarzt Thomas Young lieferte Anfang des 19. Jahrhundert mit seinem Beugungsversuch am Doppelspalt den ersten experimentellen Beweis für die Wellennatur des Lichts – gegen den Widerstand des wissenschaftlichen Establishments. In Selbstversuchen lieferte er außerdem den Beweis, dass die Adaption des Auges auf der Verformung der Augenlinse beruht und belegte die Ursache des Astigmatismus, eines optischen Abbildungsfehlers, der sich im Auge als Hornhautverkrümmung äußert. Er stellte auch die Dreifarben-Hypothese des Farbsehens auf, ausgebaut von Helmholtz und heute voll bestätigt. Ebenso wichtig für die Biologie ist Youngs Entdeckung des nach ihm benannten Gesetzes der Kapillarität.

Dargestellt ist die von Helmholtz und Young vermutete Empfindlichkeit des Auges für die drei Farbtöne rot, grün und blau/violett.
Dreifarben-Hypothese

Der Physiologe Helmholtz maß als erster die Transportgeschwindigkeit von Nervensignalen. Seine Formulierung des Energieerhaltungssatzes der Physik und die Entdeckung der zentralen Bedeutung der Zirkulationsströmung für das Fliegen wurden durch die Biologie inspiriert. Dabei ist seine Entwicklung vom Mediziner zum theoretischen Physiker außergewöhnlich: Als Mediziner begründete er die moderne Physiologie und als Physiker legte er den Grundstein für die zum Ende des 19. Jahrhunderts einsetzende enorme Entwicklung der Physik in Deutschland.

Energie und Bewegung

Die prominentesten Beispiele für die Auswirkungen der Biologie auf die Physik sind die Entdeckung des allgemeinen Energieerhaltungsssatzes durch den deutschen Arzt und Physiker Julius von Mayer und den Physiologen Hermann von Helmholtz sowie die Theorie der Brownschen Bewegung durch Albert Einstein. Mayer beobachtete als Schiffsarzt auf Java, dass das in den Venen zum Herzen zurückfließende Blut der Hafenarbeiter in den Tropen heller ist als in gemäßigten Zonen. Er wusste bereits, dass Blut umso heller ist, je mehr Sauerstoff es enthält. Daraus schloss er, dass die Arbeiter in den Tropen bei gleicher Arbeitsleistung weniger Sauerstoff – und damit Energie – verbrauchten als in gemäßigten Zonen, da weniger Wärme an die Umgebung abgegeben wird. Dies brachte ihn auf die Idee, dass Wärme und mechanische Arbeit äquivalente Energieformen sind und er bestimmte aus physiologischen Messungen sogar das mechanische Wärmeäquivalent.

Die Grafik ist zweigeteilt und zeigt statistische Bewegungen von Teilchen, die sich bei höherer Temperatur schneller bewegen.
Brownsche Bewegung

Seine Intuition allein reichte jedoch nicht aus, um der Idee in der Physik zum Durchbruch zu verhelfen. Erst dem Theoretiker Helmholtz gelang 1847 die allgemeine Formulierung des Energieerhaltungssatzes. Seine im Alter von 26 Jahren verfasste Arbeit wurde allerdings nicht zur Publikation in den Annalen für Physik und Chemie angenommen, und so setzte sich der Energieerhaltungssatz eher zögernd durch. Einsteins Deutung der Beobachtung des britischen Botanikers Robert Brown, dass Bärlappsamen in Wasser wirre Bewegungen ausführen, beeinflusste die Physik zu Beginn des Jahrhunderts fast ähnlich stark wie die Plancksche Strahlungsformel. Nach dem experimentellen Beweis der Theorie der Brownschen Bewegung durch den französischen Physiker Jean-Baptiste Perrin, der 1926 den Physik-Nobelpreis erhielt, akzeptierten auch skeptische Physiker das Konzept der atomistischen Struktur der Materie. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Komponenten des Lebens und ihre Funktion

Die Biophysik bildet die Brücke zwischen der Physik und den Lebenswissenschaften. Sie ist eng mit der Physik Weicher Materie und Komplexer Systeme verknüpft und viele Fragestellungen sind Bestandteil der Statistischen Physik geworden. Dabei verfolgt die Biophysik mehrere Stoßrichtungen.

Die eine versucht, Methoden zu entwickeln, um die Architektur biologischer Materialien von molekularen bis makroskopischen Skalen zu untersuchen und ihre physikalischen Eigenschaften unter möglichst natürlichen Bedingungen zu messen – in „vivo“, sagt der Biologe. Entdeckungsfreudige Physiker finden eine breite Spielwiese, um mit einfachen Methoden wie optischen und magnetischen Pinzetten oder einer Glaspipette, gepaart mit einem guten Mikroskop, die physikalischen Eigenschaften der Zellen zu studieren.

Dreidimensionale Darstellung der Struktur des Proteins GGA1.
Struktur eines Proteins

Große Maschinen hingegen sind notwendig, um die Struktur und Dynamik biologischer Materialien mittels Neutronen- und Röntgenbeugung zu erforschen. Moderne Methoden der Röntgenbeugung mit fokussierten Strahlen eröffnen dabei auch völlig neue Einblicke in die molekulare Architektur von Gewebe, Knochen oder Holz. Zudem verspricht die Entwicklung der Spallations-Neutronenquellen und des Freien Elektronenlasers neue Einsichten in die molekulare Basis des molekularen Erkennens zwischen Proteinen und DNS oder die physikalischen Grundlagen der Proteinfaltung.

Biologie als Vorbild

Eine zweite Forschungsrichtung ist die von der Biologie inspirierte Physik. Sie versucht möglichst realistische Modelle lebender Materie – wie Membranen, Gewebe oder Knochen – aufzubauen, um spezifische biologische Prozesse zu imitieren. Solche Modelle spielen eine wichtige Rolle, um etwa die Verlässlichkeit neuer physikalischer Methoden zu testen oder um nach den wesentlichen physikalischen Parametern zu suchen, welche das biologische Verhalten eines Systems bestimmen.

Parallele Untersuchungen natürlicher Systeme und von Modellen helfen auch, Bezüge zur Physik Kondensierter Materie herzustellen. Im Hintergrund steht der Gedanke, die Strategie der biologischen Selbstorganisation zur Herstellung neuartiger smarter Materialien einzusetzen. Beispiele dieses Bionik genannten Gebietes sind Materialien, die ihre Eigenschaften an wechselnde Umgebungsbedingungen anpassen können, wie selbst reinigende Oberflächen oder bruchfeste Keramiken, wie sie in Prozessen der Biomineralisierung entstehen.

Im Grenzbereich zwischen Physik und Technik sind Bemühungen angesiedelt, Methoden der Navigation in der Tierwelt zu imitieren. Beispielsweise inspirierte die Echoortung der Fledermaus die Radartechniker zum Bau des Zirp-Radars. Auch beim Bau von Robotern lässt man sich gern von der Biologie inspirieren: Zahlreiche Arbeitsgruppen versuchen, die Fähigkeit der Insekten und Salamander des Hochlaufens an Wänden zu imitieren. Roboter zum Fensterputzen wären eine passende Umsetzung des Prinzips.

Ein anderer zukunftsträchtiger Zweig der angewandten Biologischen Physik ist der Bau von Biosensoren durch den Aufbau von Enzymsystemen, Biomembranen oder Nervenzellen auf elektro-optischen Bauelementen. Ein Beispiel sind zweidimensionale Anordnungen von Punkt-Transistoren, die als Nano-Voltmeter fungieren. Hier sitzen auch zahlreiche Querverbindungen zur Nanotechnik oder Mikrooptik, denn die dort entwickelten Methoden eröffnen neue Möglichkeiten zur Messung physikalischer Eigenschaften der Zellen in natürlicher Umgebung.

Komplexe Wechselwirkungen erfassen

Dargestellt ist eine Nervenzelle mit Axonen.
Neuron

Auf fundamentalere Fragen der Biologie zielt die oft als Systembiophysik bezeichnete Erforschung der Regulation biologischer Prozesse durch das Wechselspiel zwischen biochemischen und genetischen Signalkaskaden, der dadurch bedingten Modifikation der Materialeigenschaften und der biologischen Funktion. Hier arbeiten Physiker, Mathematiker und Ingenieure miteinander. Eine besonders faszinierende Fragestellung dieser Kategorie ist die Entwicklung vom befruchteten Ei zum Embryo, oft Morphogenese genannt. Was steuert die Differenzierung der zunächst völlig identisch erscheinenden Zellen des befruchteten Eis in Neuronen oder Muskelzellen und was legt den Zeitplan der embryonalen Entwicklung fest? Ist dies alles im genetischen Code vorbestimmt oder bestimmt die Kopplung zwischen externen äußeren Kräften – wie chemischen Potentialen oder mechanischen Kräften – und dem genetischen Apparat den Prozess der Morphogenese?

Alan Turing, der geistige Vater des Programmierens, lehrte erstmals, wie raum-zeitliche Muster, etwa von Signalmolekülen, die dann die Entwicklung von Organen steuern, allein durch das Zusammenspiel chemischer Potenziale und autokatalytischer Prozesse entstehen können. Zwar ist die Entwicklung vom befruchteten Ei zum ausgewachsenen Lebewesen vor allem durch die zeitliche Folge der Gen-Expression bestimmt, doch zeigt sich auch immer mehr, dass die Zell-Zell-Erkennung und insbesondere mechanische Kräfte die Differenzierung und räumliche Organisation der Zellen steuern können. Die Aufklärung des Wechselspiels zwischen Morphogenese und der Physik der Zelle ist eine besonders reizvolle Aufgabe für Experimentatoren und Theoretiker.

Immer mehr Physiker finden außerdem Interesse an der Hirnforschung und versuchen zu verstehen, wie das Gehirn die Umwelt wahrnimmt. Ein Meilenstein auf dem Weg zur quantitativen Hirnforschung war die Entdeckung, dass optische Muster, die auf die Netzhaut der Augen projiziert werden, im visuellen Cortex als Erregungsmuster abgebildet werden. Diese Experimente brachten der Physik neuronaler Netzwerke einen enormen Aufschwung. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)

Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Elektronen gleichzeitig an zwei verschiedenen Orten

Nach einem grundlegenden Theorem der Quantenmechanik sind bestimmte Elektronen in ihrem Ort nicht eindeutig bestimmbar. Zwei Physikern der Universität Kassel ist nun gemeinsam mit Kollegen in einem Experiment der Beweis gelungen, dass sich diese Elektronen tatsächlich an zwei Orten gleichzeitig aufhalten.

„Vermutet hat man dieses für den Laien schwer verständliche Verhalten schon lange, aber hier ist es zum ersten Mal gelungen, dies experimentell nachzuweisen“, erläuterte Prof. Dr. Arno Ehresmann, Leiter des Fachgebiets „Funktionale dünne Schichten und Physik mit Synchrotronstrahlung“ an der Universität Kassel. „In umfangreichen Versuchen haben wir an Elektronen von Sauerstoff-Molekülen die zum Beweis dieser Aussage charakteristischen Oszillationen nachgewiesen.“ Dr. André Knie, Mitarbeiter am Fachgebiet und Geschäftsführer des LOEWE-Forschungs-Schwerpunkts „Elektronendynamik chiraler Systeme“, ergänzte: „Dieses Experiment legt einen Grundstein für das Verständnis der Quantenmechanik, die uns wie so oft mehr Fragen als Antworten gibt. Besonders die Dynamik der Elektronen ist ein Feld der Quantenmechanik, dass zwar schon seit 100 Jahren untersucht wird, aber immer wieder neue und verblüffende Einsichten in unsere Natur ermöglicht.“

Die theoretischen Grundlagen für die Entdeckung gehen auf Albert Einstein zurück. Er erhielt für die Beschreibung des sogenannten Photoeffekts 1922 den Physik-Nobelpreis. Danach können Elektronen aus Atomen oder Molekülen mit Hilfe von Licht dann entfernt werden, wenn die Energie des Lichts größer ist als die Bindungsenergie der Elektronen. Einstein hat schon 1905 die mathematische Beschreibung dieses sogenannten Photoeffekts abgeleitet, in dem er damals Unerhörtes annahm: Licht wird dazu als ein Strom aus Lichtteilchen beschrieben und je ein Lichtteilchen („Photon“) übergibt seine Energie an je ein Elektron. Übersteigt diese Energie die Energie, mit dem das Elektron an das Atom gebunden ist, wird das Elektron freigesetzt. Soweit wurde diese Annahme später auch experimentell bestätigt.

Einstein weitergedacht

Darauf aufbauend lässt sich das Verhalten von Elektronen weiter untersuchen. In einem zweiatomigen Molekül, das aus zwei gleichen Atomen zusammengesetzt ist (z. B. das Sauerstoffmolekül O2) gibt es Elektronen, die sehr eng an das jeweilige Atom gebunden sind. Im Teilchenbild könnte man sich vorstellen, dass diese Elektronen um das jeweilige Atom kreisen. Nach der Quantenmechanik sind diese Elektronen allerdings nicht zu unterscheiden. Für ein Photon mit einer Energie, die größer ist als die Bindungsenergie dieser Elektronen (für beide Elektronen ist die Bindungsenergie gleich) stellt sich nun die Frage: An welches dieser beiden für mich als Photon nicht zu unterscheidenden Elektronen gebe ich meine Energie ab? Die Antwort der Quantenmechanik lautet: Das Photon gibt seine Energie zwar an ein einziges Elektron ab, aber dieses befindet sich mit einer gewissen Wahrscheinlichkeit gleichzeitig nahe bei Atom 1 und nahe bei Atom 2 (das Gleiche gilt für das andere Elektron). Und: Elektronen sind auch als Welle verstehbar, genauso wie damals Einstein zur Beschreibung des Lichts Teilchen angenommen hat. Wird nun ein einziges Elektron vom Atom entfernt, so laufen die zugehörigen Wellen sowohl von Atom 1 aus, als auch von Atom 2, da sich dieses Elektron ja gleichzeitig da und dort befindet. Seit langem wurde daher schon vorhergesagt, dass sich diese beiden Wellen überlagern müssen und damit interferieren. Experimentell war der Nachweis dieser Interferenzmuster bis dato noch nicht gelungen.

Genau dies glückte jedoch nun der Forschungsgruppe, an der die Kasseler Physiker Ehresmann und Knie beteiligt waren – ein eindeutiger Beleg, dass sich ein Elektron gleichzeitig an zwei verschiedenen Orten aufhält. Die Experimente wurden an den Synchrotronstrahlungsanlagen DORIS III bei DESY in Hamburg sowie BESSY II in Berlin durchgeführt. Dabei wurde monochromatische Synchrotronstrahlung auf gasförmige Moleküle fokussiert. Diese wurden durch die Strahlung ionisiert und die bei der Ionisation freiwerdenden Elektronen durch sogenannte Elektronenspektrometer winkel- und energieaufgelöst detektiert. (Quelle: idw)

Buchtipps:

 

Proton-Paradoxon: Sind Physiker auf unbekanntes Naturgesetz gestoßen?

Heidelberg. Zwei Experimente lieferten verschiedene Werte für den Radius des Protons. Messfehler halten die Physiker mittlerweile für praktisch ausgeschlossen. Sind sie auf ein bislang unbekanntes physikalisches Phänomen gestoßen?

Das Proton muss doch längst perfekt verstanden sein! Es ist einer der Hauptbestandteile aller Materie, die uns umgibt, der Brennstoff der Sterne im Universum. Es ist der positiv geladene Kern des Wasserstoffatoms, des am besten untersuchten Atoms überhaupt. Das Teilchen wurde in zahllosen Experimenten genauestens vermessen, und auch am Large Hadron Collider (LHC) des europäischen Teilchenforschungszentrums CERN bei Genf sind es Protonen, die wir bei höchsten Energien miteinander kollidieren lassen, um neue Teilchen wie das Higgs-Boson entstehen zu lassen.

Kann das Proton also keine Überraschungen mehr für uns bereithalten? Weit gefehlt. Zusammen mit anderen Physikern haben Jan Bernauer und Randolf Pohl, die Autoren von “Das Proton-Paradox”, Titelgeschichte der April-Ausgabe 2014 von Spektrum der Wissenschaft, in den letzten Jahren die bislang präzisesten Messungen des Radius dieses Partikels vorgenommen. Anfangs erwarteten sie, durch die zwanzigfach höhere Genauigkeit dem lange bekannten Wert des Protonenradius lediglich die eine oder andere Nachkommastelle hinzuzufügen. Das war ein Irrtum. Vielmehr lieferten die beiden Experimente, bei denen unterschiedliche Messverfahren zum Einsatz kamen, zwei Werte, die deutlich voneinander abweichen: nämlich um mehr als das Fünffache der so genannten kombinierten Messunsicherheit. Die Wahrscheinlichkeit, dass dies nur ein Zufall ist, beträgt weniger als eins in einer Million.

Während Jan Bernauer seine Messungen als Doktorand am Institut für Kernphysik der Universität Mainz durchführte – heute forscht er am Laboratory for Nuclear Science des Massachusetts Institute of Technology in Boston –, arbeitete Randolf Pohl vom Max-Planck-Institut für Quantenoptik in Garching an einem Beschleuniger des Paul Scherrer Instituts im schweizerischen Villigen. Immer neue technische und organisatorische Probleme hatten die Realisierung des neuartigen Messverfahrens, auf das er seine Hoffnungen setzte, auf Jahre verzögert. Statt mit gewöhnlichem Wasserstoff arbeitete er mit Wasserstoff, in dem statt eines Elektrons dessen 200-mal schwerer Vetter, ein Myon, das Proton umkreist.

Als aber endlich doch alles funktionierte, war das Resultat frustrierend: Die Forscher maßen kein einziges Signal. “Wir überlegten fieberhaft”, berichtet Pohl. “Könnten die Ursachen unseres Problems tiefer liegen als wir bis dahin vermutet hatten? Was wäre denn, wenn wir nach dem Protonenradius an der falschen Stelle, also bei den falschen Wellenlängen unseres Lasers, suchten? Wir beschlossen, unseren Suchradius zu erweitern. Doch in welche Richtung? Gemeinsam fassten wir den Entschluss, nach einem größeren Protonenradius Ausschau zu halten. Doch etwas später an diesem Abend kam mein Kollege Aldo Antognini in den Kontrollraum des Beschleunigers und meinte, wir sollten stattdessen nach einem kleineren Protonenradius suchen. Zu diesem Zeitpunkt arbeiteten wir längst in 20-Stunden-Schichten.”

Da den Forschern die ihnen am Beschleuniger zugestandene Zeit davonlief, steuerten sie die experimentellen Parameter schließlich sogar in Richtung noch kleinerer Werte, als jemals vermutet worden waren. Dann die Überraschung: Die ersten Hinweise auf ein Signal tauchten auf! Die Wissenschaftler waren elektrisiert – doch das Ergebnis wich um vier Prozent von bisherigen Messungen ab; eine drastische Diskrepanz. Das Proton im myonischen Wasserstoff war deutlich kleiner als irgendjemand erwartet hätte.

In der Forschergemeinde verursachte dies einige Aufregung. Die meisten Physiker glaubten zwar schlicht, dass ein Fehler im Spiel sein müsste. Schon bald meldete sich eine ganze Reihe von ihnen mit Vorschlägen, wo er stecken könnte. Doch eine Erklärung nach der anderen schlug fehl – und jedes Mal wuchs die Bedeutung der Messergebnisse.

Mittlerweile glauben die meisten Forscher, dass die Diskrepanz tatsächlich existiert, und arbeiten an neuen, noch präziseren Experimenten. Ihre große Hoffnung: Die Ergebnisse von Bernauer und Pohl könnten auf bislang unbekannte Naturgesetze hindeuten, indem sie Hinweise auf Teilchen und Kräfte liefern, die über das so genannte Standardmodell der Teilchenphysik hinausgehen. Vielleicht enthält das Universum ja ein bislang unentdecktes Elementarteilchen, das mit Myonen anders wechselwirkt als mit Elektronen? Denn das Myon hat sich auch an anderer Stelle verdächtig gemacht: Messungen seines so genannten magnetischen Moments passen nicht zu den theoretischen Berechnungen.

Im besten Fall stoßen die Wissenschaftler in den kommenden Jahren sogar auf eine Antwort, die beide Rätsel auf einen Schlag löst.  (Quelle: Spektrum der Wissenschaft, April 2014)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Wie ein expandierendes Universum erzeugt werden kann

Wenn man Raum und Zeit erhitzt, kann ein expandierendes Universum entstehen – ganz ohne Urknall. Diesen Phasenübergang zwischen einem leeren Raum und einem expandierenden Universum, das Masse enthält, konnte ein Forschungsteam nun berechnen. Dahinter liegt ein bemerkenswerter Zusammenhang zwischen Quantenfeldtheorie und Einsteins Relativitätstheorie.

Kochen mit Raum und Zeit

Aus dem Alltag kennen wir Phasenübergänge nur von Stoffen, die zwischen festem, flüssigem und gasförmigem Zustand wechseln. Allerdings können auch Raum und Zeit selbst solche Übergänge durchmachen, wie die Physiker Steven Hawking und Don Page schon 1983 zeigten. Sie berechneten, dass aus leerem Raum bei einer bestimmten Temperatur plötzlich ein Schwarzes Loch werden kann.

Lässt sich bei einem ähnlichen Prozess aber auch ein ganzes Universum erzeugen, das sich kontinuierlich ausdehnt, so wie unseres? Diese Frage stellte sich Daniel Grumiller vom Institut für Theoretische Physik der TU Wien gemeinsam mit Kollegen aus Harvard, dem Massachusetts Institute of Technology (MIT) und der Universität Edinburgh. Das Ergebnis: Tatsächlich scheint es eine kritische Temperatur zu geben, bei der aus einem völlig leeren, flachen Raum ein expandierendes Universum mit Masse wird. „Die leere Raumzeit beginnt gewissermaßen zu kochen, es bilden sich Blasen, eine von ihnen expandiert und nimmt schließlich die gesamte Raumzeit ein“, erklärt Daniel Grumiller.

 Daniel Grumiller erhitzt die Raumzeit - zumindest am Papier. Foto: TU Wien
Daniel Grumiller erhitzt die Raumzeit – zumindest am Papier. Foto: TU Wien

Das Universum muss dabei rotieren – das Kochrezept für ein expandierendes Universum lautet also: Erhitzen und umrühren. Diese Rotation kann allerdings beliebig gering sein. Bei den Berechnungen wurden vorerst nur zwei Raumdimensionen berücksichtigt. „Es gibt aber nichts, was dagegen spricht, dass es in drei Raumdimensionen genauso ist“, meint Grumiller.

Das Phasenübergangs-Modell ist nicht als Konkurrenz zur Urknalltheorie gedacht. „In der Kosmologie weiß man heute sehr viel über das frühe Universum – das zweifeln wir nicht an”, sagt Grumiller. “Aber für uns ist die Frage entscheidend, welche Phasenübergänge in Raum und Zeit möglich sind und wie die mathematische Struktur der Raumzeit beschrieben werden kann“.

Auf der Suche nach der Struktur des Universums

Die Theorie ist die logische Fortsetzung  einer 1997 aufgestellten Vermutung, der sogenannten „AdS-CFT-Korrespondenz“, die seither die Forschung an den fundamentalen Fragen der Physik stark beeinflusst hat: Sie beschreibt einen merkwürdigen Zusammenhang zwischen Gravitationstheorien und Quantenfeldthorien – zwei Bereiche, die auf den ersten Blick gar nichts miteinander zu tun haben. In bestimmten Grenzfällen lassen sich Aussagen der Quantenfeldtheorie in Aussagen von Gravitationstheorien überführen und umgekehrt.  Zwei ganz unterschiedliche physikalische Gebiete werden so in Verbindung gebracht, aber es mangelte bisher an konkreten Modellen, die diesen Zusammenhang belegten.

Letztes Jahr wurde von Daniel Grumiller und Kollegen erstmals so ein Modell aufgestellt (der Einfachheit halber in bloß zwei Raumdimensionen). Das führte schließlich zur aktuellen Fragestellung: Dass es in den Quantenfeldtheorien einen Phasenübergang gibt, wusste man. Doch das bedeutete, dass es aus Konsistenzgründen auch auf der Gravitatations-Seite einen Phasenübergang geben muss.

„Das war zunächst ein Rätsel für uns“, sagt Daniel Grumiller. „Das würde einen Phasenübergang zwischen einer leeren Raumzeit und einem expandierenden Universum bedeuten, und das erschien uns zunächst äußerst unwahrscheinlich.“ Die Rechenergebnisse zeigten dann aber, dass genau diesen Übergang tatsächlich gibt. “Wir beginnen erst, diese Zusammenhänge zu verstehen“, meint Daniel Grumiller. Welche Erkenntnisse über unser eigenes Universum wir dadurch ableiten können, ist heute noch gar nicht absehbar. (Quelle: idw)

Buchtipps:

 

Fließspuren von Wasser auf dem Mars gefunden

Dunkle Fliessspuren, wie hier im Palikir Krater, bilden sich in jedem Mars-Frühjahr. Sie gelten als Beleg für flüssiges Wasser und wurden nun erstmals am Mars-Äquator beobachtet.  Bild: NASA/JPL/University of Arizona
Dunkle Fliessspuren, wie hier im Palikir Krater, bilden sich in jedem Mars-Frühjahr. Sie gelten als Beleg für flüssiges Wasser und wurden nun erstmals am Mars-Äquator beobachtet.
Bild: NASA/JPL/University of Arizona

Bilder der NASA-Raumsonde «Mars Reconaissance Orbiter» zeigen Spuren von flüssigem Wasser in Canyons am Mars-Äquator – und damit bei möglichen Landeplätzen künftiger bemannter Missionen. Mit dieser Entdeckung knüpft ein internationales Forschungsteam mit Beteiligung des Center for Space and Habitability (CSH) der Universität Bern an frühere Beobachtungen an.

Sie sind ein «Highlight» in der Marsforschung, sagt Nicolas Thomas, Professor am Center for Space and Habitability (CSH) der Universität Bern: Auf der Oberfläche des Roten Planeten wurden Fliessspuren entdeckt, die im Frühling erscheinen, während dem Mars-Sommer wachsen und im Winter wieder verschwinden. Sie kommen in jedem Mars-Jahr an den gleichen Orten vor. Beobachtet wurden sie das erste Mal vor rund vier Jahren in moderaten südlichen Breitengraden – und sie werden als Beleg dafür gesehen, dass auf der Mars-Oberfläche flüssiges Wasser existiert. Nun hat ein internationales Team mit Berner Beteiligung Hinweise auf solche Spuren in den Canyons von «Vallis Marineris» gefunden. Diese Erkenntnisse, die im Journal «Nature Geoscience» publiziert werden, zeigen laut Nicolas Thomas, dass «flüssiges Wasser in äquatorialen Regionen – einem primären Ziel für zukünftige Landplätze von Sonden – vorkommen könnte».

Möglich wurden diese Beobachtungen durch die Kamera des Forschungsprojekts «High Resolution Imaging Science Experiment» (HiRISE), die sich an Bord der NASA-Raumsonde «Mars Reconnaissance Orbiter» befindet. Die bisherigen Auswertungen stützen die Vermutung, dass die Spuren durch flüssiges Wasser verursacht werden. «HiRISE hat gezeigt, dass der Mars viel dynamischer ist, als wir erwartet haben», erklärt Nicolas Thomas. «Wir konnten subtile Veränderungen bei der Helligkeit der Marsoberfläche beobachten, was darauf hinweist, dass ein benetzter Boden getrocknet ist.» Denn dieser zeige danach veränderte lichttechnische Eigenschaften, bei denen Salze eine Rolle spielen könnten. Um diese Beobachtungen im Labor zu reproduzieren, führt das Team des CSH Experimente mit simuliertem Mars-Boden – der zumeist aus Hawaii stammt – durch.

Publikation:

Alfred S. McEwen, Colin M. Dundas, Sarah S. Mattson, Anthony D. Toigo, Lujendra Ojha, James J. Wray, Matthew Chojnacki, Shane Byrne, Scott L. Murchie and Nicolas Thomas: Recurring slope lineae in equatorial regions of Mars, Nature Geoscience, in press, doi: 10.1038/NGEO2014

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

 

Bedrohung aus dem All: Komet ISON kommt uns nahe

München (ots) – Einst bombardierten Kometen unser Sonnensystem, brachten vermutlich Wasser und Leben auf die Erde und hinterließen bis heute sichtbare Krater. Würde heute ein Komet der Größe von Shoemaker-Levy 9, der 1994 auf Jupiter einschlug, auf die Erde treffen, gäbe es sie nicht mehr. Das schreibt das Weltraum-Magazin SPACE in seiner Ausgabe 1/2014.

Großes Bombardement – so nennt die Wissenschaft den Kometensturm, der vor vier Milliarden Jahren die Planeten und Monde unseres Sonnensystems traf und bis heute sichtbare Krater hinterließ. Wie viele Kometen am Rande unseres Sonnensystems – im Kuipergürtel und in der sogenannten Oortschen Wolke – herumfliegen und jederzeit der Erde gefährlich werden können, lässt sich nicht sagen. Gelegentlich verlässt ein Komet diesen Bereich und fliegt durch das Sonnensystem; das kann man von der Erde aus beobachten. Wenn die Theorie von der Oortschen Wolke stimmt, besteht durchaus Gefahr: “Wenn da 100 Millionen Kometen in der hypothetischen Ooortschen Wolke in einem Lichtjahr Entfernung herumkreisen und es dort zu einer Störung kommt, dann könnte es wirklich zu einem erneuten Großen Bombardement kommen”, meint Astronomie-Experte Nick Howes.

Die Folgen eines solchen Kometensturms auf unser Sonnensystem wären verheerend. Glücklicherweise lenken die Großplaneten wie Jupiter viele der anfliegenden Objekte auf sich, etwa den Kometen Shoemaker-Levy 9, der im Juli 1994 in Trümmer von bis zu zwei Kilometern Durchmesser zerbarst und auf dem Jupiter aufschlug. Würde ein ähnliches Ereignis die Erde treffen, wären die Folgen apokalyptisch. “Solch ein Komet könnte in 100 Millionen Jahren kommen oder nächste Woche. Wir wissen es nicht”, so Nick Howes.

Aktuell ist Komet Ison in Sichtweite gerückt: Seit Ende November 2013 ist er der Sonne besonders nah. Wissenschaftler vermuten, dass er unterwegs in Fragmente zerbersten könnte. Viele gehen davon aus, dass sein Schweif bis Januar hell leuchten und für auch für Hobby-Astronomen am Nachthimmel sichtbar sein wird.

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Gigantische Versuchsanordnung im arktischen Eis findet Geisterteilchen

Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.  (c) Foto: IceCube Collaboration/NSF
Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.
(c) Foto: IceCube Collaboration/NSF

Darauf hat die IceCube-Kollaboration seit Jahren hingearbeitet. Nun deutet alles darauf hin, dass den Forschern im antarktischen Eis Neutrinos von außerhalb unseres Sonnensystems ins Netz gegangen sind. Unter den gefundenen Ereignissen befinden sich Neutrinos mit Energien, die tausendmal höher sind, als man sie auf der Erde selbst erzeugen kann. Diese kosmischen Neutrinos können einzigartige Informationen über den Aufbau von Supernovas, Gamma-Ray-Blitze oder Schwarzen Löchern liefern.

Das Neutrino-Teleskop IceCube am Südpol ist weltweit einmalig. In einem Kubikkilometer Eis sind insgesamt 5.160 hochempfindliche Lichtsensoren installiert. Wenn doch mal ein Neutrino im Eis wechselwirkt, entstehen geladene Teilchen die mit nahezu Lichtgeschwindigkeiten weiterfliegen. Diese erzeugen ein schwaches bläuliches Licht, das von den Detektoren aufgefangen wird.

„Wir sehen hochenergetische Neutrinos, von denen wir jetzt mit ziemlicher Sicherheit sagen können, dass sie astrophysikalischen Ursprungs sind“, sagt Prof. Dr. Marek Kowalski vom Physikalischen Institut der Universität Bonn. Neutrinos sind ganz besondere Teilchen: Sie können anders als elektromagnetische Strahlung sämtliche Materie durchdringen. Mit ihrer Hilfe lässt sich wie mit einem Röntgenapparat in die verstecktesten Winkel des Universums blicken. Allerdings wechselwirken diese Teilchen kaum und könnten selbst von einer Bleiabschirmung mit 1000 Kilometer Dicke nicht aufgehalten werden. Ihr Nachweis ist deshalb besonders schwierig. Mit der gigantischen Messeinrichtung „IceCube“ in der Antarktis sind nun dennoch zum ersten Mal Hinweise für hochenergetische Neutrinos aus dem Weltall gefunden worden.

Die meisten Neutrinos auf der Erde entstehen bei niedrigen Energien durch Kernfusion in der Sonne, sie können sich aber auch in der Erdatmosphäre bilden. Die Forscher des IceCube Projektes interessieren sich aber besonders für hochenergetische Neutrinos aus astrophysikalischen Quellen – zum Beispiel von Supernovas, Gamma-Ray-Blitzen oder galaktischen Schwarzen Löchern. Denn Neutrinos sind die einzigen Teilchen, die aus dem Inneren dieser Quellen entkommen können und damit einzigartige Informationen über ihren Aufbau liefern.

Morgendämmerung für ein neues Zeitalter der Astronomie

Gelungen ist der Nachweis der Neutrinos einem internationalen Team von rund 250 Wissenschaftlern und Ingenieuren der IceCube-Kollaboration unter Beteiligung der Astroteilchen-Gruppe von Prof. Kowalski. Mit der gigantischen Versuchsanordnung im antarktischen Eis wurden in den vergangenen zwei Jahren insgesamt 28 Neutrinos mit Energien größer als 30 Tera-Elektronenvolt (TeV), darunter zwei Ereignisse mit über 1000 TeV registriert. Dieser Fund war für die Forscher so bedeutsam, dass die Teilchen sogar eigene Namen bekamen: Ernie & Bert – den beiden beliebten Figuren aus der Fernsehserie „Sesamstraße“.

Mit der verbesserten Analyse der Daten, die nun auch die Richtung der Neutrinos liefert, konnten nicht nur diese beiden, sondern ein Großteil dieser Teilchen als potentielle kosmische Fernreisende identifiziert werden. „Das ist der erste Hinweis auf hochenergetische Neutrinos, die von außerhalb unseres Sonnensystems kommen“, sagt Prof. Dr. Francis Halzen, Projektleiter des IceCube-Experiments von der Universität Wisconsin-Madison (USA). „Dies ist die Morgendämmerung für ein neues Zeitalter der Astronomie.“

Ein Rätsel bleiben jedoch noch die Quellen, aus denen die Neutrinos im Weltraum stammen. Eine Möglichkeit sind Supernovas, bei denen die hochenergetischen Teilchen freigesetzt werden. Das Bild, das sich aus dem IceCube-Experiment abzeichnet, stellt sich für die Wissenschaftler noch verschwommen dar. „Wir können die kosmischen Quellen der Teilchen noch nicht nachweisen, weil wir bislang nicht exakt genug bestimmen konnten, aus welcher Richtung die Neutrinos aus dem Weltall in das Eis eindringen“, erklärt Prof. Kowalski. Die Forscher hoffen darauf, demnächst noch mehr Teilchen nachzuweisen, damit sich die Quellen allmählich schärfer abzeichnen.

Publikation: Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detector, Science, DOI: 10.1126/science.1242856

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit