Archiv der Kategorie: Physik

Buchmesse: Giganten der Physik

Aus den Lebensbeschreibungen geistig großer Männer wissen wir, dass sich in ihnen das Ideal dramatischer Spannung nur selten verwirklicht. Sie sind keine Romanhelden mit verwickelten Erlebnissen und abenteuerlichen Daseinsproblemen, welche die Fantasie der Betrachter sonderlich beschäftigen können. Wer ihre Entwicklung verfolgt, der bemerkt bei den meisten das Vorwalten der inneren Linie, deren Verlauf sich nur aus dem Studium ihrer Werke erschließt, nicht im Gewirr äußerlich bewegter Gestaltungen. Der geistig Bedeutende, auf gedankliche Innenarbeit konzentriert, behält nur selten die Zeit übrig, um daneben eine im epischen Sinne interessante Figur zu werden. Der nachschaffende Dichter findet in ihm kein Modell, und nur in Ausnahmefällen ist es geglückt, sein Leben als ein Kunstwerk darzustellen.
Es wäre ein vergebliches Bemühen, Einsteins Leben als einen solchen Ausnahmefall zu behandeln. Man kann die Phasen seiner Entwicklung nachzeichnen, allein weder der Beschreiber, noch der Leser werden es sich verhehlen dürfen, dass diese Aufzeichnungen das Bild des Mannes nur äußerlich, chronologisch vervollständigen können. Immerhin wird eine Schrift, die sich mit ihm beschäftigt, nicht an der Aufgabe vorbeikönnen, sein Curriculum vitae zu liefern. Und wenn es teilweise etwas aphoristisch, ungegliedert ausfällt, so möge man im Auge behalten, dass es auf dem Boden der Konversation zwischen Alexander Moszkowski und Einstein entstanden ist, in Einzelheiten der Gespräche, die je nach Anlass verschiedene Episoden seines Daseins berührten. Hier nun seine Beschreibung:
Einsteins Lebensgeschichte beginnt in Ulm, der Stadt, die das höchste Bauwerk in Deutschland besitzt. Gern würde ich mich auf die Warte des Ulmer Münsters stellen, um von ihm aus eine Rundsicht über Alberts Jugend zu gewinnen; allein der Ausblick versagt, es zeigt sich nichts am Horizont, und alles beschränkt sich auf die dürftige Wahrnehmung, dass er hier im März 1879 zur Welt kam. Zu erwähnen bliebe nur die schon an anderer Stelle genannte Einzelheit, dass es etwas Physikalisches war, das zuerst die Aufmerksamkeit des Kindes in Anspruch nahm. Sein Vater zeigte ihm einmal, als er im Bettchen lag, einen Kompass, lediglich in der Absicht, ihn spielerisch zu beschäftigen. Und in dem fünfjährigen Knaben weckte die schwingende Metallnadel zum ersten Mal das große Erstaunen über unbekannte Zusammenhänge, das den im Unterbewusstsein schlummernden Erkenntnistrieb ankündigte. Für den erwachsenen Einstein besitzt die Rückerinnerung an jenes psychische Erlebnis offenbar eine starke Bedeutung. In ihm scheinen sich alle Eindrücke der frühen Kindheit zu verlebendigen, umso stärker, als die übrigen physikalischen Gegebenheiten, wie etwa der freie Fall eines nicht unterstützten Körpers, gar keinen Eindruck auf ihn hervorbrachten. Der Kompass und immer nur der Kompass! Dies Instrument redete zu ihm in einer stummen Orakelsprache, wies ihn auf ein elektromagnetisches Feld, das sich ihm Jahrzehnte später zu fruchtbaren Studien erschließen sollte. …

Bibliographische Angaben:
Buchtitel: Giganten der Physik: Die Top10-Physiker der Menschheitsgeschichte
Autor(en): Klaus-Dieter Sedlacek;
Taschenbuch: 216 Seiten
Verlag: Books on Demand
ISBN 978-3-7431-3800-1
Ebook: ISBN 978-3-7431-2224-6
Bezug über alle relevanten Buchhandlungen, Online-Shops und Großhändler – z. B. Amazon, Apple iBooks, Tolino, Google Play, Thalia, Hugendubel uvm.

Rezensionsexemplar: presse(at)bod.de

Merken

Merken

Merken

Merken

Erstmals klassisches Objekt teleportiert

Foto: Sedlacek
Teleportation. Foto: Sedlacek

Star Trek-Vision wird Wirklichkeit

(idw) „Beam me up, Scotty“, auch wenn Captain Kirk diesen Satz so nie gesagt haben soll, hält er sich als geflügeltes Wort bis heute. Wann immer der Chef des TV-Serien-Raumschiffs Enterprise zurück in seine Steuerzentrale wollte, genügte dieses Kommando und im selben Augenblick schon war er dort – ohne Zeitverlust durch die unendlichen Weiten des Weltraums.

Alles Science Fiction, erdacht in den 60er Jahren des vergangenen Jahrhunderts? Nicht ganz: Physiker sind tatsächlich in der Lage, zwar keine massiven Teilchen, so aber doch deren Eigenschaften zu beamen bzw. zu „teleportieren“, wie es in der Fachsprache heißt. Erstmals klassisches Objekt teleportiert weiterlesen

Was ist eigentlich Entropie?

Entropie

Die Entropie wird oft missverständlich als eine Art „Unordnung“ bezeichnet. Doch das greift viel zu kurz. Einst eingeführt, um den begrenzten Wirkungsgrad von Dampfmaschinen zu erklären, wird der Begriff heute auch in vielen anderen Disziplinen genutzt.

Kaum ein Begriff der Physik wird so gerne außerhalb der Physik benutzt – und so oft abweichend von seiner eigentlichen Bedeutung – wie der der Entropie. Dabei hat der Begriff durchaus eine eng umrissene Bedeutung. Eine konkrete Definition dieser physikalischen Größe stellte der österreichische Physiker Ludwig Boltzmann in der zweiten Hälfte des 19. Jahrhunderts auf. Er konzentrierte sich auf das mikroskopische Verhalten eines Fluids, also eines Gases oder einer Flüssigkeit. Die ungeordnete Bewegung von Atomen oder Molekülen darin verstand er dabei als Wärme, was für seine Definition entscheidend war.

Entropie in der Badewanne

In einem abgeschlossenen System mit festem Volumen und fixer Teilchenzahl, so legte Boltzmann fest, ist die Entropie proportional zum Logarithmus der Anzahl von Mikrozuständen in dem System. Unter Mikrozuständen verstand er alle Möglichkeiten, wie sich die Moleküle oder Atome des eingesperrten Fluids anordnen können. Seine Formel definiert die Entropie somit als ein Maß für die „Anordnungsfreiheit“ der Moleküle und Atome: Steigt die Zahl der einnehmbaren Mikrozustände, dann wächst die Entropie. Gibt es weniger Möglichkeiten, wie sich die Teilchen des Fluids anordnen können, ist die Entropie kleiner.

Boltzmanns Formel wird oft so interpretiert, als sei die Entropie gleichbedeutend mit „Unordnung“. Dieses vereinfachte Bild führt allerdings leicht in die Irre. Ein Beispiel dafür ist der Schaum in einer Badewanne: Wenn die Bläschen zerplatzen und die Wasseroberfläche glatt wird, hat es den Anschein, als nehme die Unordnung ab. Die Entropie tut das aber nicht! Tatsächlich nimmt sie sogar zu, denn nach dem Zerplatzen des Schaums ist der mögliche Aufenthaltsraum für die Moleküle der Flüssigkeit nicht mehr auf die Außenhäute der Bläschen beschränkt – die Zahl der einnehmbaren Mikrozustände hat sich also vergrößert. Die Entropie ist gewachsen.

Mithilfe der Boltzmannschen Definition lässt sich eine Seite des Begriffs verstehen – doch die Entropie hat auch eine andere, makroskopische Seite, die der deutsche Physiker Rudolf Clausius bereits einige Jahre zuvor aufgedeckt hatte. Zu Beginn des 18. Jahrhunderts wurde die Dampfmaschine erfunden, eine klassische Wärmekraftmaschine. Wärmekraftmaschinen wandeln einen Temperaturunterschied in mechanische Arbeit um. Physiker versuchten damals zu begreifen, welchen Prinzipien diese Maschinen gehorchen. Die Forscher stellten nämlich irritiert fest, dass sich nur ein paar Prozent der thermischen Energie in mechanische Energie umwandeln ließen. Der Rest ging irgendwie verloren – ohne dass sie den Grund verstanden.

Wertigkeit der Energie

Der Theorie der Thermodynamik schien ein physikalisches Konzept zu fehlen, das die unterschiedliche Wertigkeit der Energie berücksichtigt und die Fähigkeit begrenzt, thermische Energie in mechanische Energie umzuwandeln. In Gestalt der Entropie kam die Lösung. Mitte des 19. Jahrhunderts führte Clausius den Begriff als thermodynamische Größe ein und definierte ihn als makroskopisches Maß für eine Eigenschaft, die die Nutzbarkeit von Energie begrenzt.

Clausius zufolge hängt die Entropieänderung eines Systems von der zugeführten Wärme und der dabei herrschenden Temperatur ab. Zusammen mit Wärme wird immer Entropie übertragen, so sein Fazit. Darüber hinaus stellte Clausius fest, dass die Entropie in geschlossenen Systemen, anders als die Energie, keine Erhaltungsgröße ist. Diese Erkenntnis ging als der zweite Hauptsatz der Thermodynamik in die Physik ein:

„In einem geschlossenen System nimmt die Entropie niemals ab.“

Die Entropie nimmt demnach immer zu oder bleibt konstant. Damit wird in die Physik geschlossener Systeme ein Zeitpfeil eingeführt, denn bei wachsender Entropie sind thermodynamische Prozesse in geschlossenen Systemen unumkehrbar (oder irreversibel).

Reversibel (umkehrbar) wäre ein Prozess nur dann, wenn die Entropie konstant bliebe. Das ist aber bloß theoretisch möglich. Alle realen Prozesse sind irreversibel. Frei nach Boltzmann kann man auch sagen: Die Zahl der möglichen Mikrozustände nimmt jederzeit zu. Diese mikroskopische Interpretation erweitert die thermodynamisch-makroskopische Interpretation durch Clausius. Durch die Entropie ließ sich das Rätsel um die verschwundene Energie in Wärmekraftmaschinen endlich auflösen (siehe Kasten). Ständig entzieht sich ein Teil der Wärmeenergie der mechanischen Nutzbarkeit und wird wieder abgegeben, weil die Entropie in geschlossenen Systemen nicht abnehmen darf.

Vielseitiger Einsatz

Seit den Erkenntnissen von Clausius und Boltzmann ist die Entropie auch in andere Bereiche der Physik eingezogen. Sogar außerhalb der Physik griff man sie auf, jedenfalls als mathematisches Konzept. Beispielsweise führte der US-amerikanische Mathematiker und Elektrotechniker Claude Shannon im Jahr 1948 die sogenannte Informationsentropie ein. Mit dieser Größe charakterisierte er den Informationsverlust in Übertragungen per Telefonleitung.

Auch in der Chemie und Biologie spielt die Entropie eine Rolle: In bestimmten offenen Systemen können sich neue Strukturen bilden, sofern Entropie nach außen abgegeben wird. Es muss sich dabei um sogenannte dissipative Systeme handeln, bei denen also Energie in thermische Energie umgewandelt wird. Diese Theorie der Strukturbildung stammt vom belgischen Physikochemiker Ilya Prigogine. Bis heute werden Arbeiten veröffentlicht, in denen der physikalischen Tragweite des Konzepts neue Aspekte hinzugefügt werden.

Wirkungsgrad und Entropie

Warum ist der Wirkungsgrad von Wärmekraftmaschinen begrenzt? Rudolf Clausius löste dieses Rätsel, indem er den Begriff der Entropie einführte. Der Physiker betrachtete den Kreisprozess einer idealisierten Wärmekraftmaschine, bei dem sich Expansion und Kompression unter isothermen (konstante Temperatur) und isentropen (konstante Entropie) Bedingungen abwechseln. Durch Verknüpfung der Energieerhaltung mit dem zweiten Hauptsatz der Thermodynamik ergibt sich in diesem sogenannten Carnotprozess die folgende Ungleichung für den Wirkungsgrad:

η≤(T1T2)/T1

T1 und T2 sind die beiden Temperaturen, zwischen denen der Kreisprozess betrieben wird. Der maximal erreichbare Wirkungsgrad einer Wärmekraftmaschine ist also durch thermodynamische Gesetzmäßigkeiten begrenzt. Ein Beispiel: Wird die Maschine zwischen 100 und 200 Grad Celsius betrieben, dann liegt der maximal erreichbare Wirkungsgrad bei rund 27 Prozent (die Temperaturwerte müssen in der Einheit Kelvin in die Formel eingesetzt werden).

Aus der Energieerhaltung und dem zweiten Hauptsatz der Thermodynamik lassen sich auf mathematischem Weg auch noch zwei weitere nützliche Erkenntnisse ableiten: Wärme kann nur dann von einem kalten auf einen warmen Körper übergehen, wenn Arbeit aufgewendet wird – Kühlschränke und Wärmepumpen benötigen eine Energiezufuhr. Zweitens lässt sich mit einem Wärmereservoir konstanter Temperatur keine Arbeit verrichten. Dazu ist immer der Fluss von Wärme zwischen Reservoirs unterschiedlicher Temperatur notwendig.

Entropie in Formeln

Der Begriff Entropie ist eine Neubildung durch Rudolf Clausius aus griechischen Wörtern und bedeutet übersetzt ungefähr „Wandlungsgehalt“. Laut dem Physiker hängt die Entropieänderung ΔS eines Systems folgendermaßen mit der zugeführten Wärme und der Temperatur zusammen:

ΔS=ΔQ/T

Dabei bezeichnet ΔQ eine kleine, dem System reversibel zugeführte Wärmemenge und T die Temperatur, die bei dieser Übertragung herrscht. Die Formel besagt, dass zusammen mit Wärme immer Entropie übertragen wird. Boltzmanns Definition der Entropie beruht auf dem Verständnis der Wärme als ungeordnete Bewegung von Atomen oder Molekülen. Ihm zufolge ist die Entropie S durch folgende Formel gegeben:

S=k lnW

Die Entropie ist also proportional zum Logarithmus der Zahl W der „Mikrozustände“ eines Systems, wobei alle anderen Parameter – wie Volumen und Teilchenzahl – konstant sind. Mit den Mikrozuständen sind die Möglichkeiten gemeint, wie die Moleküle oder Atome eines eingesperrten Fluids angeordnet sein können. Die Konstante k ist die Boltzmann-Konstante.

Autor: Sven Titz; Quelle: Welt der Physik; Lizenz: CC by-nc-nd

Merken

Merken

Physik sorgt für Entwicklungsschub in der Biologie

Geschichte der Biophysik

Physik und Biologie haben gemeinsame Wurzeln und haben sich oft gegenseitig inspiriert. Neue physikalische Messmethoden führten zu einem Entwicklungsschub in der Biologie und Beobachtungen der Biologen dienten als Denkanstöße in der Physik.

Kann die Physik auch prinzipielle Fragen der Biologie klären? Einige Experten hegten einst starke Zweifel. So erklärte der französische Genetiker und Medizin-Nobelpreisträger von 1965, Jacques Monod, lange Zeit, dass Leben zwar mit den Gesetzen der Physik kompatibel sei, aber nicht durch physikalische Gesetze kontrolliert werde. Ernst Walter Mayr, der große Entwicklungsbiologe, behauptete, Physik spiele in der Biologie überhaupt keine Rolle und habe praktisch nichts zur Deutung lebender Materie beigetragen. Die historischen Beispiele zeigen jedoch das Gegenteil.

Mit Physik die Zelle entdecken

Ein erster Begründer der modernen Biologie war der Delfter Kaufmann und Hobbyforscher Antoni van Leeuwenhoek, der um 1670 einfache Mikroskope baute, mit denen er eine bis zu 200-fache Vergrößerung erreichte. Die Mikroskope bestanden aus einer auf einem Kupferring ruhenden Glaskugel, als Beleuchtung diente eine Kerze. Leeuwenhoek beobachtete damit erstmals lebende Zellen – wahrscheinlich sogar große Bakterien.

Historische Skizze des Mikroskops von Robert Hooke.
Mikroskop nach Hooke

Als zweiter Entdecker der Zelle kann der englische Physiker Robert Hooke angesehen werden. Der Experimentator, dessen Name vor allem durch sein Gesetz der Elastizität bekannt ist, beobachttee im 17. Jahrhundert die Struktur von Kork und prägte den Begriff der Zelle. Seine und Leeuwenhoeks Beobachtungen über die Existenz und Bewegung von Zellen wurden von den Biologen lange als Spielerei abgetan und so dauerte es noch gut 200 Jahre, bis die Idee der Zelle vollständig akzeptiert wurde.

Physikalische Prinzipien in der Biologie

Weitere Pioniere der Biophysik waren Thomas Young und Hermann von Helmholtz, die beide über die Medizin zur Physik kamen. Der Augenarzt Thomas Young lieferte Anfang des 19. Jahrhundert mit seinem Beugungsversuch am Doppelspalt den ersten experimentellen Beweis für die Wellennatur des Lichts – gegen den Widerstand des wissenschaftlichen Establishments. In Selbstversuchen lieferte er außerdem den Beweis, dass die Adaption des Auges auf der Verformung der Augenlinse beruht und belegte die Ursache des Astigmatismus, eines optischen Abbildungsfehlers, der sich im Auge als Hornhautverkrümmung äußert. Er stellte auch die Dreifarben-Hypothese des Farbsehens auf, ausgebaut von Helmholtz und heute voll bestätigt. Ebenso wichtig für die Biologie ist Youngs Entdeckung des nach ihm benannten Gesetzes der Kapillarität.

Dargestellt ist die von Helmholtz und Young vermutete Empfindlichkeit des Auges für die drei Farbtöne rot, grün und blau/violett.
Dreifarben-Hypothese

Der Physiologe Helmholtz maß als erster die Transportgeschwindigkeit von Nervensignalen. Seine Formulierung des Energieerhaltungssatzes der Physik und die Entdeckung der zentralen Bedeutung der Zirkulationsströmung für das Fliegen wurden durch die Biologie inspiriert. Dabei ist seine Entwicklung vom Mediziner zum theoretischen Physiker außergewöhnlich: Als Mediziner begründete er die moderne Physiologie und als Physiker legte er den Grundstein für die zum Ende des 19. Jahrhunderts einsetzende enorme Entwicklung der Physik in Deutschland.

Energie und Bewegung

Die prominentesten Beispiele für die Auswirkungen der Biologie auf die Physik sind die Entdeckung des allgemeinen Energieerhaltungsssatzes durch den deutschen Arzt und Physiker Julius von Mayer und den Physiologen Hermann von Helmholtz sowie die Theorie der Brownschen Bewegung durch Albert Einstein. Mayer beobachtete als Schiffsarzt auf Java, dass das in den Venen zum Herzen zurückfließende Blut der Hafenarbeiter in den Tropen heller ist als in gemäßigten Zonen. Er wusste bereits, dass Blut umso heller ist, je mehr Sauerstoff es enthält. Daraus schloss er, dass die Arbeiter in den Tropen bei gleicher Arbeitsleistung weniger Sauerstoff – und damit Energie – verbrauchten als in gemäßigten Zonen, da weniger Wärme an die Umgebung abgegeben wird. Dies brachte ihn auf die Idee, dass Wärme und mechanische Arbeit äquivalente Energieformen sind und er bestimmte aus physiologischen Messungen sogar das mechanische Wärmeäquivalent.

Die Grafik ist zweigeteilt und zeigt statistische Bewegungen von Teilchen, die sich bei höherer Temperatur schneller bewegen.
Brownsche Bewegung

Seine Intuition allein reichte jedoch nicht aus, um der Idee in der Physik zum Durchbruch zu verhelfen. Erst dem Theoretiker Helmholtz gelang 1847 die allgemeine Formulierung des Energieerhaltungssatzes. Seine im Alter von 26 Jahren verfasste Arbeit wurde allerdings nicht zur Publikation in den Annalen für Physik und Chemie angenommen, und so setzte sich der Energieerhaltungssatz eher zögernd durch. Einsteins Deutung der Beobachtung des britischen Botanikers Robert Brown, dass Bärlappsamen in Wasser wirre Bewegungen ausführen, beeinflusste die Physik zu Beginn des Jahrhunderts fast ähnlich stark wie die Plancksche Strahlungsformel. Nach dem experimentellen Beweis der Theorie der Brownschen Bewegung durch den französischen Physiker Jean-Baptiste Perrin, der 1926 den Physik-Nobelpreis erhielt, akzeptierten auch skeptische Physiker das Konzept der atomistischen Struktur der Materie. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Komponenten des Lebens und ihre Funktion

Die Biophysik bildet die Brücke zwischen der Physik und den Lebenswissenschaften. Sie ist eng mit der Physik Weicher Materie und Komplexer Systeme verknüpft und viele Fragestellungen sind Bestandteil der Statistischen Physik geworden. Dabei verfolgt die Biophysik mehrere Stoßrichtungen.

Die eine versucht, Methoden zu entwickeln, um die Architektur biologischer Materialien von molekularen bis makroskopischen Skalen zu untersuchen und ihre physikalischen Eigenschaften unter möglichst natürlichen Bedingungen zu messen – in „vivo“, sagt der Biologe. Entdeckungsfreudige Physiker finden eine breite Spielwiese, um mit einfachen Methoden wie optischen und magnetischen Pinzetten oder einer Glaspipette, gepaart mit einem guten Mikroskop, die physikalischen Eigenschaften der Zellen zu studieren.

Dreidimensionale Darstellung der Struktur des Proteins GGA1.
Struktur eines Proteins

Große Maschinen hingegen sind notwendig, um die Struktur und Dynamik biologischer Materialien mittels Neutronen- und Röntgenbeugung zu erforschen. Moderne Methoden der Röntgenbeugung mit fokussierten Strahlen eröffnen dabei auch völlig neue Einblicke in die molekulare Architektur von Gewebe, Knochen oder Holz. Zudem verspricht die Entwicklung der Spallations-Neutronenquellen und des Freien Elektronenlasers neue Einsichten in die molekulare Basis des molekularen Erkennens zwischen Proteinen und DNS oder die physikalischen Grundlagen der Proteinfaltung.

Biologie als Vorbild

Eine zweite Forschungsrichtung ist die von der Biologie inspirierte Physik. Sie versucht möglichst realistische Modelle lebender Materie – wie Membranen, Gewebe oder Knochen – aufzubauen, um spezifische biologische Prozesse zu imitieren. Solche Modelle spielen eine wichtige Rolle, um etwa die Verlässlichkeit neuer physikalischer Methoden zu testen oder um nach den wesentlichen physikalischen Parametern zu suchen, welche das biologische Verhalten eines Systems bestimmen.

Parallele Untersuchungen natürlicher Systeme und von Modellen helfen auch, Bezüge zur Physik Kondensierter Materie herzustellen. Im Hintergrund steht der Gedanke, die Strategie der biologischen Selbstorganisation zur Herstellung neuartiger smarter Materialien einzusetzen. Beispiele dieses Bionik genannten Gebietes sind Materialien, die ihre Eigenschaften an wechselnde Umgebungsbedingungen anpassen können, wie selbst reinigende Oberflächen oder bruchfeste Keramiken, wie sie in Prozessen der Biomineralisierung entstehen.

Im Grenzbereich zwischen Physik und Technik sind Bemühungen angesiedelt, Methoden der Navigation in der Tierwelt zu imitieren. Beispielsweise inspirierte die Echoortung der Fledermaus die Radartechniker zum Bau des Zirp-Radars. Auch beim Bau von Robotern lässt man sich gern von der Biologie inspirieren: Zahlreiche Arbeitsgruppen versuchen, die Fähigkeit der Insekten und Salamander des Hochlaufens an Wänden zu imitieren. Roboter zum Fensterputzen wären eine passende Umsetzung des Prinzips.

Ein anderer zukunftsträchtiger Zweig der angewandten Biologischen Physik ist der Bau von Biosensoren durch den Aufbau von Enzymsystemen, Biomembranen oder Nervenzellen auf elektro-optischen Bauelementen. Ein Beispiel sind zweidimensionale Anordnungen von Punkt-Transistoren, die als Nano-Voltmeter fungieren. Hier sitzen auch zahlreiche Querverbindungen zur Nanotechnik oder Mikrooptik, denn die dort entwickelten Methoden eröffnen neue Möglichkeiten zur Messung physikalischer Eigenschaften der Zellen in natürlicher Umgebung.

Komplexe Wechselwirkungen erfassen

Dargestellt ist eine Nervenzelle mit Axonen.
Neuron

Auf fundamentalere Fragen der Biologie zielt die oft als Systembiophysik bezeichnete Erforschung der Regulation biologischer Prozesse durch das Wechselspiel zwischen biochemischen und genetischen Signalkaskaden, der dadurch bedingten Modifikation der Materialeigenschaften und der biologischen Funktion. Hier arbeiten Physiker, Mathematiker und Ingenieure miteinander. Eine besonders faszinierende Fragestellung dieser Kategorie ist die Entwicklung vom befruchteten Ei zum Embryo, oft Morphogenese genannt. Was steuert die Differenzierung der zunächst völlig identisch erscheinenden Zellen des befruchteten Eis in Neuronen oder Muskelzellen und was legt den Zeitplan der embryonalen Entwicklung fest? Ist dies alles im genetischen Code vorbestimmt oder bestimmt die Kopplung zwischen externen äußeren Kräften – wie chemischen Potentialen oder mechanischen Kräften – und dem genetischen Apparat den Prozess der Morphogenese?

Alan Turing, der geistige Vater des Programmierens, lehrte erstmals, wie raum-zeitliche Muster, etwa von Signalmolekülen, die dann die Entwicklung von Organen steuern, allein durch das Zusammenspiel chemischer Potenziale und autokatalytischer Prozesse entstehen können. Zwar ist die Entwicklung vom befruchteten Ei zum ausgewachsenen Lebewesen vor allem durch die zeitliche Folge der Gen-Expression bestimmt, doch zeigt sich auch immer mehr, dass die Zell-Zell-Erkennung und insbesondere mechanische Kräfte die Differenzierung und räumliche Organisation der Zellen steuern können. Die Aufklärung des Wechselspiels zwischen Morphogenese und der Physik der Zelle ist eine besonders reizvolle Aufgabe für Experimentatoren und Theoretiker.

Immer mehr Physiker finden außerdem Interesse an der Hirnforschung und versuchen zu verstehen, wie das Gehirn die Umwelt wahrnimmt. Ein Meilenstein auf dem Weg zur quantitativen Hirnforschung war die Entdeckung, dass optische Muster, die auf die Netzhaut der Augen projiziert werden, im visuellen Cortex als Erregungsmuster abgebildet werden. Diese Experimente brachten der Physik neuronaler Netzwerke einen enormen Aufschwung. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)

Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Elektronen gleichzeitig an zwei verschiedenen Orten

Nach einem grundlegenden Theorem der Quantenmechanik sind bestimmte Elektronen in ihrem Ort nicht eindeutig bestimmbar. Zwei Physikern der Universität Kassel ist nun gemeinsam mit Kollegen in einem Experiment der Beweis gelungen, dass sich diese Elektronen tatsächlich an zwei Orten gleichzeitig aufhalten.

„Vermutet hat man dieses für den Laien schwer verständliche Verhalten schon lange, aber hier ist es zum ersten Mal gelungen, dies experimentell nachzuweisen“, erläuterte Prof. Dr. Arno Ehresmann, Leiter des Fachgebiets „Funktionale dünne Schichten und Physik mit Synchrotronstrahlung“ an der Universität Kassel. „In umfangreichen Versuchen haben wir an Elektronen von Sauerstoff-Molekülen die zum Beweis dieser Aussage charakteristischen Oszillationen nachgewiesen.“ Dr. André Knie, Mitarbeiter am Fachgebiet und Geschäftsführer des LOEWE-Forschungs-Schwerpunkts „Elektronendynamik chiraler Systeme“, ergänzte: „Dieses Experiment legt einen Grundstein für das Verständnis der Quantenmechanik, die uns wie so oft mehr Fragen als Antworten gibt. Besonders die Dynamik der Elektronen ist ein Feld der Quantenmechanik, dass zwar schon seit 100 Jahren untersucht wird, aber immer wieder neue und verblüffende Einsichten in unsere Natur ermöglicht.“

Die theoretischen Grundlagen für die Entdeckung gehen auf Albert Einstein zurück. Er erhielt für die Beschreibung des sogenannten Photoeffekts 1922 den Physik-Nobelpreis. Danach können Elektronen aus Atomen oder Molekülen mit Hilfe von Licht dann entfernt werden, wenn die Energie des Lichts größer ist als die Bindungsenergie der Elektronen. Einstein hat schon 1905 die mathematische Beschreibung dieses sogenannten Photoeffekts abgeleitet, in dem er damals Unerhörtes annahm: Licht wird dazu als ein Strom aus Lichtteilchen beschrieben und je ein Lichtteilchen („Photon“) übergibt seine Energie an je ein Elektron. Übersteigt diese Energie die Energie, mit dem das Elektron an das Atom gebunden ist, wird das Elektron freigesetzt. Soweit wurde diese Annahme später auch experimentell bestätigt.

Einstein weitergedacht

Darauf aufbauend lässt sich das Verhalten von Elektronen weiter untersuchen. In einem zweiatomigen Molekül, das aus zwei gleichen Atomen zusammengesetzt ist (z. B. das Sauerstoffmolekül O2) gibt es Elektronen, die sehr eng an das jeweilige Atom gebunden sind. Im Teilchenbild könnte man sich vorstellen, dass diese Elektronen um das jeweilige Atom kreisen. Nach der Quantenmechanik sind diese Elektronen allerdings nicht zu unterscheiden. Für ein Photon mit einer Energie, die größer ist als die Bindungsenergie dieser Elektronen (für beide Elektronen ist die Bindungsenergie gleich) stellt sich nun die Frage: An welches dieser beiden für mich als Photon nicht zu unterscheidenden Elektronen gebe ich meine Energie ab? Die Antwort der Quantenmechanik lautet: Das Photon gibt seine Energie zwar an ein einziges Elektron ab, aber dieses befindet sich mit einer gewissen Wahrscheinlichkeit gleichzeitig nahe bei Atom 1 und nahe bei Atom 2 (das Gleiche gilt für das andere Elektron). Und: Elektronen sind auch als Welle verstehbar, genauso wie damals Einstein zur Beschreibung des Lichts Teilchen angenommen hat. Wird nun ein einziges Elektron vom Atom entfernt, so laufen die zugehörigen Wellen sowohl von Atom 1 aus, als auch von Atom 2, da sich dieses Elektron ja gleichzeitig da und dort befindet. Seit langem wurde daher schon vorhergesagt, dass sich diese beiden Wellen überlagern müssen und damit interferieren. Experimentell war der Nachweis dieser Interferenzmuster bis dato noch nicht gelungen.

Genau dies glückte jedoch nun der Forschungsgruppe, an der die Kasseler Physiker Ehresmann und Knie beteiligt waren – ein eindeutiger Beleg, dass sich ein Elektron gleichzeitig an zwei verschiedenen Orten aufhält. Die Experimente wurden an den Synchrotronstrahlungsanlagen DORIS III bei DESY in Hamburg sowie BESSY II in Berlin durchgeführt. Dabei wurde monochromatische Synchrotronstrahlung auf gasförmige Moleküle fokussiert. Diese wurden durch die Strahlung ionisiert und die bei der Ionisation freiwerdenden Elektronen durch sogenannte Elektronenspektrometer winkel- und energieaufgelöst detektiert. (Quelle: idw)

Buchtipps:

 

Proton-Paradoxon: Sind Physiker auf unbekanntes Naturgesetz gestoßen?

Heidelberg. Zwei Experimente lieferten verschiedene Werte für den Radius des Protons. Messfehler halten die Physiker mittlerweile für praktisch ausgeschlossen. Sind sie auf ein bislang unbekanntes physikalisches Phänomen gestoßen?

Das Proton muss doch längst perfekt verstanden sein! Es ist einer der Hauptbestandteile aller Materie, die uns umgibt, der Brennstoff der Sterne im Universum. Es ist der positiv geladene Kern des Wasserstoffatoms, des am besten untersuchten Atoms überhaupt. Das Teilchen wurde in zahllosen Experimenten genauestens vermessen, und auch am Large Hadron Collider (LHC) des europäischen Teilchenforschungszentrums CERN bei Genf sind es Protonen, die wir bei höchsten Energien miteinander kollidieren lassen, um neue Teilchen wie das Higgs-Boson entstehen zu lassen.

Kann das Proton also keine Überraschungen mehr für uns bereithalten? Weit gefehlt. Zusammen mit anderen Physikern haben Jan Bernauer und Randolf Pohl, die Autoren von “Das Proton-Paradox”, Titelgeschichte der April-Ausgabe 2014 von Spektrum der Wissenschaft, in den letzten Jahren die bislang präzisesten Messungen des Radius dieses Partikels vorgenommen. Anfangs erwarteten sie, durch die zwanzigfach höhere Genauigkeit dem lange bekannten Wert des Protonenradius lediglich die eine oder andere Nachkommastelle hinzuzufügen. Das war ein Irrtum. Vielmehr lieferten die beiden Experimente, bei denen unterschiedliche Messverfahren zum Einsatz kamen, zwei Werte, die deutlich voneinander abweichen: nämlich um mehr als das Fünffache der so genannten kombinierten Messunsicherheit. Die Wahrscheinlichkeit, dass dies nur ein Zufall ist, beträgt weniger als eins in einer Million.

Während Jan Bernauer seine Messungen als Doktorand am Institut für Kernphysik der Universität Mainz durchführte – heute forscht er am Laboratory for Nuclear Science des Massachusetts Institute of Technology in Boston –, arbeitete Randolf Pohl vom Max-Planck-Institut für Quantenoptik in Garching an einem Beschleuniger des Paul Scherrer Instituts im schweizerischen Villigen. Immer neue technische und organisatorische Probleme hatten die Realisierung des neuartigen Messverfahrens, auf das er seine Hoffnungen setzte, auf Jahre verzögert. Statt mit gewöhnlichem Wasserstoff arbeitete er mit Wasserstoff, in dem statt eines Elektrons dessen 200-mal schwerer Vetter, ein Myon, das Proton umkreist.

Als aber endlich doch alles funktionierte, war das Resultat frustrierend: Die Forscher maßen kein einziges Signal. “Wir überlegten fieberhaft”, berichtet Pohl. “Könnten die Ursachen unseres Problems tiefer liegen als wir bis dahin vermutet hatten? Was wäre denn, wenn wir nach dem Protonenradius an der falschen Stelle, also bei den falschen Wellenlängen unseres Lasers, suchten? Wir beschlossen, unseren Suchradius zu erweitern. Doch in welche Richtung? Gemeinsam fassten wir den Entschluss, nach einem größeren Protonenradius Ausschau zu halten. Doch etwas später an diesem Abend kam mein Kollege Aldo Antognini in den Kontrollraum des Beschleunigers und meinte, wir sollten stattdessen nach einem kleineren Protonenradius suchen. Zu diesem Zeitpunkt arbeiteten wir längst in 20-Stunden-Schichten.”

Da den Forschern die ihnen am Beschleuniger zugestandene Zeit davonlief, steuerten sie die experimentellen Parameter schließlich sogar in Richtung noch kleinerer Werte, als jemals vermutet worden waren. Dann die Überraschung: Die ersten Hinweise auf ein Signal tauchten auf! Die Wissenschaftler waren elektrisiert – doch das Ergebnis wich um vier Prozent von bisherigen Messungen ab; eine drastische Diskrepanz. Das Proton im myonischen Wasserstoff war deutlich kleiner als irgendjemand erwartet hätte.

In der Forschergemeinde verursachte dies einige Aufregung. Die meisten Physiker glaubten zwar schlicht, dass ein Fehler im Spiel sein müsste. Schon bald meldete sich eine ganze Reihe von ihnen mit Vorschlägen, wo er stecken könnte. Doch eine Erklärung nach der anderen schlug fehl – und jedes Mal wuchs die Bedeutung der Messergebnisse.

Mittlerweile glauben die meisten Forscher, dass die Diskrepanz tatsächlich existiert, und arbeiten an neuen, noch präziseren Experimenten. Ihre große Hoffnung: Die Ergebnisse von Bernauer und Pohl könnten auf bislang unbekannte Naturgesetze hindeuten, indem sie Hinweise auf Teilchen und Kräfte liefern, die über das so genannte Standardmodell der Teilchenphysik hinausgehen. Vielleicht enthält das Universum ja ein bislang unentdecktes Elementarteilchen, das mit Myonen anders wechselwirkt als mit Elektronen? Denn das Myon hat sich auch an anderer Stelle verdächtig gemacht: Messungen seines so genannten magnetischen Moments passen nicht zu den theoretischen Berechnungen.

Im besten Fall stoßen die Wissenschaftler in den kommenden Jahren sogar auf eine Antwort, die beide Rätsel auf einen Schlag löst.  (Quelle: Spektrum der Wissenschaft, April 2014)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Wie ein expandierendes Universum erzeugt werden kann

Wenn man Raum und Zeit erhitzt, kann ein expandierendes Universum entstehen – ganz ohne Urknall. Diesen Phasenübergang zwischen einem leeren Raum und einem expandierenden Universum, das Masse enthält, konnte ein Forschungsteam nun berechnen. Dahinter liegt ein bemerkenswerter Zusammenhang zwischen Quantenfeldtheorie und Einsteins Relativitätstheorie.

Kochen mit Raum und Zeit

Aus dem Alltag kennen wir Phasenübergänge nur von Stoffen, die zwischen festem, flüssigem und gasförmigem Zustand wechseln. Allerdings können auch Raum und Zeit selbst solche Übergänge durchmachen, wie die Physiker Steven Hawking und Don Page schon 1983 zeigten. Sie berechneten, dass aus leerem Raum bei einer bestimmten Temperatur plötzlich ein Schwarzes Loch werden kann.

Lässt sich bei einem ähnlichen Prozess aber auch ein ganzes Universum erzeugen, das sich kontinuierlich ausdehnt, so wie unseres? Diese Frage stellte sich Daniel Grumiller vom Institut für Theoretische Physik der TU Wien gemeinsam mit Kollegen aus Harvard, dem Massachusetts Institute of Technology (MIT) und der Universität Edinburgh. Das Ergebnis: Tatsächlich scheint es eine kritische Temperatur zu geben, bei der aus einem völlig leeren, flachen Raum ein expandierendes Universum mit Masse wird. „Die leere Raumzeit beginnt gewissermaßen zu kochen, es bilden sich Blasen, eine von ihnen expandiert und nimmt schließlich die gesamte Raumzeit ein“, erklärt Daniel Grumiller.

 Daniel Grumiller erhitzt die Raumzeit - zumindest am Papier. Foto: TU Wien
Daniel Grumiller erhitzt die Raumzeit – zumindest am Papier. Foto: TU Wien

Das Universum muss dabei rotieren – das Kochrezept für ein expandierendes Universum lautet also: Erhitzen und umrühren. Diese Rotation kann allerdings beliebig gering sein. Bei den Berechnungen wurden vorerst nur zwei Raumdimensionen berücksichtigt. „Es gibt aber nichts, was dagegen spricht, dass es in drei Raumdimensionen genauso ist“, meint Grumiller.

Das Phasenübergangs-Modell ist nicht als Konkurrenz zur Urknalltheorie gedacht. „In der Kosmologie weiß man heute sehr viel über das frühe Universum – das zweifeln wir nicht an”, sagt Grumiller. “Aber für uns ist die Frage entscheidend, welche Phasenübergänge in Raum und Zeit möglich sind und wie die mathematische Struktur der Raumzeit beschrieben werden kann“.

Auf der Suche nach der Struktur des Universums

Die Theorie ist die logische Fortsetzung  einer 1997 aufgestellten Vermutung, der sogenannten „AdS-CFT-Korrespondenz“, die seither die Forschung an den fundamentalen Fragen der Physik stark beeinflusst hat: Sie beschreibt einen merkwürdigen Zusammenhang zwischen Gravitationstheorien und Quantenfeldthorien – zwei Bereiche, die auf den ersten Blick gar nichts miteinander zu tun haben. In bestimmten Grenzfällen lassen sich Aussagen der Quantenfeldtheorie in Aussagen von Gravitationstheorien überführen und umgekehrt.  Zwei ganz unterschiedliche physikalische Gebiete werden so in Verbindung gebracht, aber es mangelte bisher an konkreten Modellen, die diesen Zusammenhang belegten.

Letztes Jahr wurde von Daniel Grumiller und Kollegen erstmals so ein Modell aufgestellt (der Einfachheit halber in bloß zwei Raumdimensionen). Das führte schließlich zur aktuellen Fragestellung: Dass es in den Quantenfeldtheorien einen Phasenübergang gibt, wusste man. Doch das bedeutete, dass es aus Konsistenzgründen auch auf der Gravitatations-Seite einen Phasenübergang geben muss.

„Das war zunächst ein Rätsel für uns“, sagt Daniel Grumiller. „Das würde einen Phasenübergang zwischen einer leeren Raumzeit und einem expandierenden Universum bedeuten, und das erschien uns zunächst äußerst unwahrscheinlich.“ Die Rechenergebnisse zeigten dann aber, dass genau diesen Übergang tatsächlich gibt. “Wir beginnen erst, diese Zusammenhänge zu verstehen“, meint Daniel Grumiller. Welche Erkenntnisse über unser eigenes Universum wir dadurch ableiten können, ist heute noch gar nicht absehbar. (Quelle: idw)

Buchtipps: