Schlagwort-Archive: Elementarteilchen

Erstmals klassisches Objekt teleportiert

Foto: Sedlacek
Teleportation. Foto: Sedlacek

Star Trek-Vision wird Wirklichkeit

(idw) „Beam me up, Scotty“, auch wenn Captain Kirk diesen Satz so nie gesagt haben soll, hält er sich als geflügeltes Wort bis heute. Wann immer der Chef des TV-Serien-Raumschiffs Enterprise zurück in seine Steuerzentrale wollte, genügte dieses Kommando und im selben Augenblick schon war er dort – ohne Zeitverlust durch die unendlichen Weiten des Weltraums.

Alles Science Fiction, erdacht in den 60er Jahren des vergangenen Jahrhunderts? Nicht ganz: Physiker sind tatsächlich in der Lage, zwar keine massiven Teilchen, so aber doch deren Eigenschaften zu beamen bzw. zu „teleportieren“, wie es in der Fachsprache heißt. Erstmals klassisches Objekt teleportiert weiterlesen

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Proton-Paradoxon: Sind Physiker auf unbekanntes Naturgesetz gestoßen?

Heidelberg. Zwei Experimente lieferten verschiedene Werte für den Radius des Protons. Messfehler halten die Physiker mittlerweile für praktisch ausgeschlossen. Sind sie auf ein bislang unbekanntes physikalisches Phänomen gestoßen?

Das Proton muss doch längst perfekt verstanden sein! Es ist einer der Hauptbestandteile aller Materie, die uns umgibt, der Brennstoff der Sterne im Universum. Es ist der positiv geladene Kern des Wasserstoffatoms, des am besten untersuchten Atoms überhaupt. Das Teilchen wurde in zahllosen Experimenten genauestens vermessen, und auch am Large Hadron Collider (LHC) des europäischen Teilchenforschungszentrums CERN bei Genf sind es Protonen, die wir bei höchsten Energien miteinander kollidieren lassen, um neue Teilchen wie das Higgs-Boson entstehen zu lassen.

Kann das Proton also keine Überraschungen mehr für uns bereithalten? Weit gefehlt. Zusammen mit anderen Physikern haben Jan Bernauer und Randolf Pohl, die Autoren von “Das Proton-Paradox”, Titelgeschichte der April-Ausgabe 2014 von Spektrum der Wissenschaft, in den letzten Jahren die bislang präzisesten Messungen des Radius dieses Partikels vorgenommen. Anfangs erwarteten sie, durch die zwanzigfach höhere Genauigkeit dem lange bekannten Wert des Protonenradius lediglich die eine oder andere Nachkommastelle hinzuzufügen. Das war ein Irrtum. Vielmehr lieferten die beiden Experimente, bei denen unterschiedliche Messverfahren zum Einsatz kamen, zwei Werte, die deutlich voneinander abweichen: nämlich um mehr als das Fünffache der so genannten kombinierten Messunsicherheit. Die Wahrscheinlichkeit, dass dies nur ein Zufall ist, beträgt weniger als eins in einer Million.

Während Jan Bernauer seine Messungen als Doktorand am Institut für Kernphysik der Universität Mainz durchführte – heute forscht er am Laboratory for Nuclear Science des Massachusetts Institute of Technology in Boston –, arbeitete Randolf Pohl vom Max-Planck-Institut für Quantenoptik in Garching an einem Beschleuniger des Paul Scherrer Instituts im schweizerischen Villigen. Immer neue technische und organisatorische Probleme hatten die Realisierung des neuartigen Messverfahrens, auf das er seine Hoffnungen setzte, auf Jahre verzögert. Statt mit gewöhnlichem Wasserstoff arbeitete er mit Wasserstoff, in dem statt eines Elektrons dessen 200-mal schwerer Vetter, ein Myon, das Proton umkreist.

Als aber endlich doch alles funktionierte, war das Resultat frustrierend: Die Forscher maßen kein einziges Signal. “Wir überlegten fieberhaft”, berichtet Pohl. “Könnten die Ursachen unseres Problems tiefer liegen als wir bis dahin vermutet hatten? Was wäre denn, wenn wir nach dem Protonenradius an der falschen Stelle, also bei den falschen Wellenlängen unseres Lasers, suchten? Wir beschlossen, unseren Suchradius zu erweitern. Doch in welche Richtung? Gemeinsam fassten wir den Entschluss, nach einem größeren Protonenradius Ausschau zu halten. Doch etwas später an diesem Abend kam mein Kollege Aldo Antognini in den Kontrollraum des Beschleunigers und meinte, wir sollten stattdessen nach einem kleineren Protonenradius suchen. Zu diesem Zeitpunkt arbeiteten wir längst in 20-Stunden-Schichten.”

Da den Forschern die ihnen am Beschleuniger zugestandene Zeit davonlief, steuerten sie die experimentellen Parameter schließlich sogar in Richtung noch kleinerer Werte, als jemals vermutet worden waren. Dann die Überraschung: Die ersten Hinweise auf ein Signal tauchten auf! Die Wissenschaftler waren elektrisiert – doch das Ergebnis wich um vier Prozent von bisherigen Messungen ab; eine drastische Diskrepanz. Das Proton im myonischen Wasserstoff war deutlich kleiner als irgendjemand erwartet hätte.

In der Forschergemeinde verursachte dies einige Aufregung. Die meisten Physiker glaubten zwar schlicht, dass ein Fehler im Spiel sein müsste. Schon bald meldete sich eine ganze Reihe von ihnen mit Vorschlägen, wo er stecken könnte. Doch eine Erklärung nach der anderen schlug fehl – und jedes Mal wuchs die Bedeutung der Messergebnisse.

Mittlerweile glauben die meisten Forscher, dass die Diskrepanz tatsächlich existiert, und arbeiten an neuen, noch präziseren Experimenten. Ihre große Hoffnung: Die Ergebnisse von Bernauer und Pohl könnten auf bislang unbekannte Naturgesetze hindeuten, indem sie Hinweise auf Teilchen und Kräfte liefern, die über das so genannte Standardmodell der Teilchenphysik hinausgehen. Vielleicht enthält das Universum ja ein bislang unentdecktes Elementarteilchen, das mit Myonen anders wechselwirkt als mit Elektronen? Denn das Myon hat sich auch an anderer Stelle verdächtig gemacht: Messungen seines so genannten magnetischen Moments passen nicht zu den theoretischen Berechnungen.

Im besten Fall stoßen die Wissenschaftler in den kommenden Jahren sogar auf eine Antwort, die beide Rätsel auf einen Schlag löst.  (Quelle: Spektrum der Wissenschaft, April 2014)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Wie die letzte große Lücke der Physik geschlossen werden kann

Sie ist die letzte große Lücke im Gebäude der Physik: eine Theorie, die Quantenphysik mit Einsteins allgemeiner Relativitätstheorie vereint. Claus Kiefer von der Universität Köln zeigt in der April-Ausgabe von Spektrum der Wisenschaft, wie Forscher das Problem lösen wollen, die Mikrowelt mit der Schwerkraft zu verschmelzen.

Im Januar 1957 trafen sich Forscher an der University of North Carolina in Chapel Hill zu einer aufregenden Konferenz. Fast alle bedeutenden Gravitationsphysiker jener Zeit hatten sich versammelt. Die eine Hälfte der Tagung befasste sich mit Einsteins Allgemeiner Relativitätstheorie, der modernen Theorie der Gravitation, die darin als Geometrie von Raum und Zeit gedeutet wird. Sie beschreibt das Große und Ganze: von unserer direkten Umgebung über Sonnensystem, Sterne und Galaxien bis hin zum Universum.

Die zweite Hälfte der Tagung befasste sich mit Verallgemeinerungen von Einsteins Theoriegebäude unter Einbezug der Quantentheorie. Eine solche erweiterte Theorie nennen Fachleute Quantengravitation. Sie vereinigt Mikro- und Makrokosmos, da die Quantentheorie hauptsächlich für die Beschreibung von Molekülen, Atomen und Elementarteilchen zuständig ist. Wie der Kölner Physikprofessor Claus Kiefer in der April-Ausgabe von Spektrum der Wissenschaft berichtet, konnte bisher trotz jahrzehntelanger Bemühungen noch keine allgemein anerkannte Theorie der Quantengravitation entwickelt worden. Allerdings existiert dafür eine Reihe mehr oder weniger aussichtsreicher Kandidaten. Wie die letzte große Lücke der Physik geschlossen werden kann weiterlesen

Überraschendes Experiment: Neutrinos schneller als das Licht?



Unter der Leitung des Berner Teilchenphysikers Antonio Ereditato hat eine internationale Forschungskollaboration im OPERA-Experiment am CERN Erstaunliches entdeckt: Neutrinos sind schneller unterwegs als das Licht, welches bisher die höchste existierende Geschwindigkeit war.

«Dieses Resultat ist eine komplette Überraschung», sagt Antonio Ereditato, Professor für Hochenergiephysik an der Universität Bern und Leiter des OPERA-Projekts: Die Teilchenphysiker haben im sogenannten OPERA-Experiment herausgefunden, dass Neutrinos, die unterirdisch vom CERN in Genf losgeschickt werden und nach einer 730 Kilometer langen Reise durch die Erde schliesslich ein Untergrund-Labor in den Bergen bei Rom erreichen, schneller unterwegs sind als das Licht. Dies teilt das CERN, das Europäische Laboratorium für Teilchenphysik, heute Freitag, 23. September 2011, mit. «Die Neutrinos sind signifikante 60 Nanosekunden schneller am Ziel, als man dies mit Lichtgeschwindigkeit erwarten würde», so der OPERA-Leiter. Eine Publikation der Daten folgt, und Antonio Ereditato stellt klar: «Dieses Ergebnis kann grosse Auswirkungen auf die geltende Physik haben – so gross, dass zurzeit eine Interpretation schwierig ist. Weitere Experimente für die Bestätigung dieser Daten müssen unbedingt folgen.»

Die Besonderheiten der Neutrinos

Neutrinos sind winzige Elementarteilchen, die Materie praktisch widerstandslos durchdringen. Ihre Spuren sind schwierig aufzuspüren, da sie nicht geladen sind und kaum mit ihrer Umgebung interagieren. Neutrinos kommen in drei verschiedenen Typen vor: Elektron-, Müon- und Tau-Neutrinos. Sie können sich auf einer langen Flugstrecke von einem Typ in einen anderen verwandeln. In der Elementarteilchenphysik wird diese Umwandlung «Neutrino-Oszillation» genannt.

Das OPERA-Projekt wurde 2006 gestartet, um die Umwandlung von verschiedenen Neutrino-Typen ineinander zu beweisen – was den Forschenden aus der Kollaboration von 13 Ländern auch gelang; letztes Jahr wurde die Verwandlung von Müon-Neutrinos in Tau-Neutrinos nachgewiesen.

Mit Atomuhren auf Nanosekunden genau

Die Daten, die im OPERA-Experiment in den letzten drei Jahren gesammelt wurden, weisen neben der Neutrino-Oszillation nun auch die Abweichung bei der erwarteten Geschwindigkeit der Kleinstteilchen nach: Eine aufwändige und hochpräzise Analyse von über 15’000 Neutrinos weist «die winzige, aber signifikante Differenz zur Lichtgeschwindigkeit nach», wie das CERN mitteilt. Die 60 Nanosekunden Zeitunterschied auf der Strecke CERN-Rom hat die OPERA-Kollaboration mit Expertinnen und Experten vom CERN sowie unter anderem mit Hilfe des nationalen Metrologieinstituts METAS in einer Hochpräzisions-Mess-Serie überprüft: Mit Hilfe von GPS und Atomuhren wurde die Flugdistanz auf 10 Zentimeter genau bestimmt und die Flugzeit auf 10 Milliardstel einer Sekunde – also auf Nanosekunden – genau gemessen. (Quelle: idw)

Buchtipp:
Supervereinigung: Wie aus nichts alles entsteht. Ansatz einer großen einheitlichen Feldtheorie

Beschenkt ein Gott seine Schöpfung mit Freiheit?

Video: Gott und die Wissenschaft

„Gott würfelt nicht” ist ein oft zitierter Ausspruch Albert Einsteins, der mit diesem Argument die Quantenmechanik ablehnte. Die Quantenmechanik beschreibt verschiedene Zustände von Elementarteilchen mithilfe von berechenbaren Wahrscheinlichkeiten – einzelne Ereignisse sind dabei nicht mehr präzise vorhersagbar. Einstein zum Trotz ist sie inzwischen ein anerkanntes Teilgebiet der Physik. Oft wird die Quantentheorie aber auch zur Beantwortung weltanschaulicher Fragen und als Grundlage philosophischer und theologischer Hypothesen herangezogen. Diese Praxis hinterfragt die LMU-Wissenschaftlerin Anna Ijjas in ihrem neuen Buch „Der Alte mit dem Würfel”. „Mittlerweile gibt es kaum noch ein metaphysisches Problem, das nicht unter Berufung auf die Quantentheorie angeblich gelöst wurde”, sagt die Theologin und Physikerin Ijjas, die in ihrem Buch untersucht, ob und inwiefern die Quantentheorie für theologische und philosophische Fragestellungen eine Rolle spielen kann. Dazu entwickelte sie eigens eine neue Methodik, anhand derer sie die Verbindung zwischen Quantenmechanik und Metaphysik hinterfragte.

Insbesondere interessierte sie, ob die der Quantenmechanik zugrunde liegende Theorie mit verschiedenen metaphysischen Modellen – wie etwa der Determinismus-Frage – logisch vereinbart werden kann. Anschließend untersuchte Ijjas die Relevanz der Quantenphysik für die Frage nach dem Verhältnis von Gehirn und Bewusstsein, dem Problem der Willensfreiheit und dem Wirken Gottes in der Welt. Dabei zeigt sich für Ijjas, dass zentrale theologische Aussagen mit der Theorie der Quantenphysik durchaus vereinbar sind – ein interdisziplinärer Dialog zwischen Naturwissenschaft und Theologie also möglich und sinnvoll ist. „Ich glaube, Einstein hat sich geirrt”, sagt Ijjas, „das Universum lässt eine gewisse Offenheit der Vorgänge zu. Aber die Quantenphysik gibt keinen Anlass zu glauben, dass die Welt von blindem Zufall regiert wäre. Vielmehr stellt eine kreatürliche Fähigkeit zur eigenen Entscheidung die Norm dar. Gott beschenkt seine Schöpfung mit Freiheit.” (göd) (Quelle:idw)

Dramatische Sternenexplosion schleudert geheimnisvolle Strahlung ins All

Mehrere astronomische Experimente haben in jüngster Zeit mysteriöse Komponenten von Elementarteilchen im Universum gemessen. Doch der Ursprung der Elektronen und Positronen blieb bislang im Dunkeln. Ist wirklich, wie einige Physiker spekulieren, dunkle Materie die Ursache für diese Strahlung?

Ein internationales Astrophysikerteam um die Bochumer Juniorprofessorin Dr. Julia Becker und den Dortmunder Physiker Prof. Dr. Dr. Wolfgang Rhode haben jetzt eine einfache Erklärung gefunden:
Gigantische Sterne, mindestens fünfzehnmal so schwer wie unsere Sonne, senden bei ihrem Tod in einer finalen Explosion die Elementarteilchen aus.
Der auf Basis dieser Theorie berechnete Fluss an Elektronen und Positronen stimmt mit dem in den astronomischen Experimenten beobachteten und bislang rätselhaften Signal überein. Wie sie die Beobachtungen mit ihrer Theorie der schweren Sternexplosionen erklären, erläutert die sechsköpfige Gruppe von internationalen Forschern in der Physical Review Letters (Ausgabe 7. August 2009).

Elementarteilchen aus dem Universum

In mehreren astronomischen Experimenten wurde kürzlich von der Beobachtung einer mysteriösen Komponente von Elektronen und Positronen aus dem Universum berichtet. Die Quellen dieser Elementarteilchen kann von den Experimenten selbst nicht identifiziert werden: Kosmische Magnetfelder lenken sie von ihren Bahnen ab und verwischen ihre Spur. Seit der Veröffentlichung der Messungen wurden viele Versuche unternommen, den Ursprung dieser Teilchenstrahlung zu erklären. Unter anderem wurde die These aufgestellt, ein solches Signal sei einzig durch die so genannte dunkle Materie erklärbar – eine Materieart, deren Ursprung bisher noch völlig unbekannt ist. “Aber die Natur hat vielleicht eine viel einfachere Erklärung für die beobachteten Teilchen”, sagt Julia Becker, die mit einem Forscherteam von Instituten aus Deutschland, den USA und Schweden zusammenarbeitet. Das Team erklärt die Teilchenstrahlung mit Explosionen von gigantischen Sternen, die mehr als das 15-fache der Masse unserer Sonne besitzen.

Das dramatische Ableben der schwersten Sterne

Ein sterbender Stern mit hoher Masse schleudert die meiste Materie, Plasma genannt, in einer finalen Explosion von sich. Die Folge ist, dass das ausgestoßene Plasma unausweichlich auf die den Stern umgebende Materie zuläuft – den sog. Sternenwind. Dieser bildet sich um die massiven Sterne, da sie schon in einem früheren Stadium einen Teil ihrer Hülle abgeben, bevor sie in der letzten Explosion vergehen. “Bei der Kollision der schnellen Materie aus der finalen Explosion mit dem Plasma früherer Ausstoßungen entstehen dann sog. Schockfronten, ähnlich wie man sie etwa auch bei Überschallflugzeugen beobachten kann”, erklärt der Dortmunder Astrophysiker Wolfgang Rhode: “Fliegt ein Flugzeug schneller als der Schall, wird die das Flugzeug umgebende Luft mit einer Geschwindigkeit nach außen gedrängt, die die Schallgeschwindigkeit überschreitet. Es kommt zum Überschallknall, der sich in Form einer Schockfront ausbreitet.” Als Schockfront bezeichnet man die sprunghafte Änderung der Dichte des Mediums an sich – dort, wo das Flugzeug die Materie wegschiebt, entsteht eine hohe Dichte, während auf der anderen Seite des Schocks die niedrige Dichte der ungestörten Atmosphäre herrscht. Genau dasselbe geschieht, wenn ein Plasma mit hoher Geschwindigkeit in ein langsameres Plasma gedrückt wird, wie es bei den Explosionen der gigantischen Sternen der Fall ist.

Elektronen und Positronen aus schweren Sternexplosionen

Wie nun in den Schockfronten der schweren Sternexplosionen Elektronen und Positronen beschleunigt werden, erklären die Forscher in ihrem Artikel: Indem sich das Plasma seinen Weg durch den Sternenwind bahnt, entstehen zwei unterschiedliche Regionen, in welchen sich jeweils unterschiedliche Schocks bilden. Auf fast der gesamten Oberfläche sind die Magnetfelder des Sterns senkrecht zu der Geschwindigkeit der Schockfront ausgerichtet. Hier entsteht ein niederenergetisches Signal von Elektronen und Positronen. Gleichzeitig ist das Magnetfeld an den Polen des ehemals rotierenden Sterns parallel zur Geschwindigkeit des Schocks ausgerichtet. Hierdurch wird hochenergetische Elektronenstrahlung erzeugt. Beide Komponenten sind in dem beobachteten Spektrum der Elektronen und Positronen sichtbar und die Messungen können mit dem Modell des Forscherteams hervorragend erklärt werden. “Für die dunkle Materie heißt das, dass sie Elektronen und Positronen nicht in gleichem Maße produziert wie die Riesensterne und dass man sie daher an anderer Stelle suchen muss”, folgert Dr. Becker. Quelle: idw

Geist in der Materie entdeckt?

Der Nobelpreisträger Max Planck (1858-1947) war einer der Pioniere der Quantenphysik und deshalb nicht verdächtig einem esoterischen Weltbild anzuhängen. Er vermutete hinter der Kraft, welche die Atomteilchen in Schwingung bringt und die Materie zusammenhält »einen bewussten, intelligenten Geist«. Diesen hielt er für den »Urgrund aller Materie«. Das waren seine Worte auf einem Vortrag, den er 1944 in Florenz hielt. Er sagte außerdem noch, dass es »keine Materie an sich gibt«.

Das materialistische Weltbild des 19. Jahrhunderts, dessen Nachbeben wir bis heute spüren, sah Materie als etwas an, das aus ewigen, unteilbaren und unvergänglichen Atomen aufgebaut ist. Über das, was es mit der angeblichen Unteilbarkeit von Atomen auf sich hat, weiß die Allgemeinheit zumindest seit Hiroshima Bescheid. Was die Allgemeinheit weniger weiß ist, dass die Atomspaltung nicht nur mit Zerstörung gleichzusetzen ist, sondern einhergeht mit Erkenntnissen, denen wir das Handy, den CD-Player, den PC und den Scanner in den Supermarktkassen verdanken. Wie von Zauberhand erscheinen nach dem Scannen der Ware Preise auf dem Kassendisplay. Welchen Vorstellungen von der Materie verdanken wir diese Errungenschaften unserer Wissenschaft, die einen mittelalterlichen Magier zum größten Zauberer seiner Zeit gemacht hätten, wenn er sie nur hätte vorführen können?

Für die heutige Physik gehört alles zur Materie, was aus Elektronen und Quarks und zwar aus Up-Quarks und Down-Quarks aufgebaut ist. Das muss man erst einmal verinnerlichen: Materie ist alles, was aus nur drei elementaren Bestandteilen besteht! Egal ob Gold, Blei, Wasserstoff oder Kohlenstoff. Egal ob ein Holzstuhl oder ein Hamburger. Alles besteht nur aus drei sogenannten Elementarteilchen: den Elektronen und zwei Sorten Quarks.

Elektronen kann man leicht erzeugen und beobachten. Die alten Röhrenfernseher liefern ein Zeugnis davon. Bei den Quarks ist das anders. Noch nie hat jemand Quarks beobachten, geschweige denn vorführen können. Und dennoch sollen die Protonen und Neutronen im Kern des Atoms aus diesen Quarks bestehen. Die Physiker schließen auf die Existenz von Quarks aufgrund von Beobachtungen, die sie machen, wenn sie in den Teilchenbeschleunigern wie CERN Protonen des Atomkerns mit anderen Teilchen und hoher Geschwindigkeit zusammenstoßen lassen. Das ist so, als würde man davon ausgehen, dass ein Fliegengewichtsboxer, der ein Schwergewicht K. O. schlägt, ein Hufeisen in seinem Boxhandschuh versteckt habe. Bevor man nicht in den Boxhandschuh reinschauen kann, weiß man es aber nicht.

Noch seltsamer mutet einem die Vorstellung von Materie an, wenn man weiß, dass Atome fast ausschließlich aus leerem Raum bestehen. Der Atomkern, in dem man die Protonen mit den Quarks finden kann, macht höchstens den zehntausendsten Teil des Atomdurchmessers aus. Der Raum um den Kern herum ist der Bereich, für den es eine größere Wahrscheinlichkeit gibt, dass man dort ein Elektron findet. Aber das gilt nicht als sicher. Die Regeln der Quantenphysik besagen, dass man das Elektron eines bestimmten Atoms genauso gut auch in New York oder sonst wo im Weltall finden kann, wenn auch mit sehr geringer Wahrscheinlichkeit. Aber unmöglich ist es nicht.

Völlig unerklärlich ist, dass Atome, Elektronen oder Protonen bei bestimmten Untersuchungen überhaupt nichts Materielles mehr an sich haben. Sie scheinen Welleneigenschaft zu besitzen und auf dem Beobachtungsschirm tauchen Wellenmuster auf. So verflüchtigt sich auf einmal das noch verbliebene Materielle an der Materie. Wenn es »keine Materie an sich gibt«, wie Planck sagte, was ist es dann, was die Materie ausmacht? Ist es eine Art Geist?

Eine Form von Geist, der in der Materie steckt, ist Information. Das kann man sich klar machen, wenn man ein Beispiel betrachtet, das drei Bausteine zum Gegenstand hat und damit dem Aufbau der Atome aus drei Elementarteilchen entspricht. Beispielsweise kann man sich zwei Kinder, einen Jungen und ein Mädchen vorstellen. Sie besitzen einen Eimer voll mit Lego-Bausteinen. Es sind drei Sorten Steine, nämlich solche mit zwei, vier und acht Noppen. Aus diesen Steinen baut das Mädchen ein kleines Puppenhaus mit zwei Zimmern, Möbeln, Ofen usw. Der Junge baut dagegen eine große Burg mit mächtigen Mauern, Zinnen, Toröffnung und Graben.

Die Frage ist nun, worin sich Puppenhaus und Burg unterscheiden? Beide Bauwerke sind aus den gleichen Steinen hergestellt. Die einzige Unterscheidung zwischen Puppenhaus und Burg ist die Zahl und Anordnung der Steine. Das gleiche gilt für unsere Welt, in der die unterschiedlichen Elemente Gold, Blei, Wasserstoff oder Kohlenstoff usw. sich nur in der Zahl und Anordnung der Elementarteilchen unterscheiden. Da alle Materie aus den Elementen aufgebaut ist, unterscheidet sich alles, was materiell existiert nur durch die Zahl und Anordnung der Elementarteilchen.

Die Anordnung ist nichts anderes als Information. Die Formen, anhand denen man erkennt, ob es sich um ein Puppenhaus oder eine Burg handelt, sind Informationen und auch die unterschiedlichen Formen und Muster der materiellen Welt sind alles Informationen. Aber Information ist sicher nicht der Geist, den Planck meinte. Denn Information ist nichts Lebendiges. Information ist passiv. Planck sprach dagegen von einem bewussten, intelligenten Geist und ein bewusster Geist ist etwas Lebendiges.

Einen Hinweis auf diesen bewussten Geist finden wir in der Interpretation der physikalischen Experimente mit Quanten. Quanten sind winzige Energiepakete, die sich je nach Art der Messung als Wellen oder Teilchen zeigen. Wegen dieses Verhaltens gelten Atome, Elektronen, Photonen (Lichtteilchen) und dergleichen – gleichgültig, ob die Objekte zur Materie zählen oder nicht – alle als Quanten. Zu einem der wichtigsten Experimente der Quantenphysik gehört jenes, bei dem man Lichtteilchen oder Elektronen auf eine Wand schickt, in der sich ein kleiner Doppelspalt befindet. Dahinter fängt man auf einem Beobachtungsschirm auf, was durch die Spalte hindurchkommt. Auf diese Weise beobachtet man das Verhalten der Quantenobjekte und kann es interpretieren.

Um Bewusstsein bei Quanten feststellen zu können, muss man wissen, anhand welcher Kriterien man Bewusstsein überhaupt feststellen kann. Bewusstsein ist kein Untersuchungsgegenstand der Quantenphysik. Deshalb findet man in dieser Disziplin keine geeigneten Kriterien zur Erkennung von Bewusstsein. Hier muss die Psychologie aushelfen. Die Psychologie hat mithilfe geeigneter Kriterien schon bei zahlreichen Tierarten Bewusstsein nachgewiesen. Das Hauptkriterium zur Erkennung einer primären Form von Bewusstsein, das allerdings noch nicht das höhere Ich-Bewusstsein einschließt, ist erstens die Fähigkeit, sich auf unerwartete Veränderungen der Wirklichkeit einzustellen und zweitens ein nicht sicher vorhersehbares, eigengesteuertes Verhalten.

Das ist aber genau das, was man an dem Verhalten von Lichtteilchen oder anderen Quanten feststellen kann, die offensichtlich selbst entscheiden, welchen Weg sie an einem Strahlenteiler durchlaufen oder welche Polarisierung sie bei einer Polarisationsmessung annehmen. Es gibt keine Formeln oder physikalischen Gesetze, anhand derer man dieses Verhalten vorausberechnen könnte. Man hat nur die Möglichkeit das Verhalten mit einer gewissen Wahrscheinlichkeit vorauszusagen. Sicherheit gibt es aber nicht. Und das entspricht beim Kriterium für primäres Bewusstsein, dem nicht sicher vorhersehbaren, eigengesteuerten Verhalten.

Immer wenn Lichtteilchen sich unbeobachtet glauben, bilden sie ein Wellenmuster auf dem Beobachtungsschirm beim Doppelspaltexperiment. Sie sind allerdings sehr eigenwillig: Wenn man nämlich einzelnen Quanten nachspürt, um mehr zu erfahren, verschwindet das Wellenmuster und es bleiben nur noch zwei Streifen übrig. Das gleiche gilt, wenn man abwechselnd einen der Spalte schließt, um mit Sicherheit sagen zu können, durch welchen Spalt ein bestimmtes Lichtteilchen gegangen ist. Die Quanten stellen sich auf alle Veränderungen der Wirklichkeit sofort ein. Ein Psychologe würde aus dem eigenwilligen Verhalten schließen, dass Quanten primäres Bewusstsein zeigen.

Planck kannte natürlich die grundlegenden Experimente der Quantenphysik einschließlich des Doppelspalt-Experiments. So ließ ihn möglicherweise das in den Experimenten offengelegte Verhalten der Materie zu dem Schluss kommen, dass ein bewusster, intelligenter Geist der »Urgrund aller Materie« ist. – Klaus-Dieter Sedlacek

Der Text enthält zum Teil Inhalte aus dem Sachbuch mit dem Titel »Unsterbliches Bewusstsein – Raumzeit-Phänomene, Beweise und Visionen« (ISBN 978-3837043518 )

Ist Zeit nur eine Illusion? Physiker experimentieren mit der Zeitdehnung

(idw). Die Zeitdehnung ist einer der faszinierendsten Aspekte der speziellen Relativitätstheorie Einsteins, weil er die Vorstellung einer absolut gültigen Zeit abschafft: Uhren in bewegtem Zustand ticken langsamer. Im Experiment konnte die Zeitdehnung zum ersten Mal von Ives und Stilwell 1938 mithilfe des Dopplereffekts beobachtet werden. Physikern der Johannes Gutenberg-Universität Mainz ist es nun gelungen, die Zeitdehnung mit bisher nicht erreichter Genauigkeit zu messen. Die Wissenschaftler verwenden dazu einen Ansatz, der die Speicherung und Kühlung von Lithium-Ionen und die Messung ihrer optischen Frequenzen mit einem Frequenzkamm verbindet. “Die Erforschung der Zeitdehnung ist nicht nur für die Grundlagenphysik von Bedeutung, sondern hat für die satellitengestützte Positionsbestimmung mit GPS und viele andere Anwendungen in der Kommunikationstechnologie eine ganz praktische Funktion”, erklärt Univ.-Prof. Dr. Gerhard Huber von der Universität Mainz dazu. Die Arbeit, die in Kooperation mit Wissenschaftlern aus Heidelberg, Garching und Winnipeg entstanden ist, wurde vom Wissenschaftsmagazin Nature Physics online veröffentlicht.

Seit ihrer Einführung 1905 bildet die spezielle Relativitätstheorie Albert Einsteins die Grundlage für alle Beschreibungen physikalischer Vorgänge. Ein wesentliches Prinzip dieser Theorie besagt, dass die Lichtgeschwindigkeit immer konstant bleibt, unabhängig davon, ob sich ein Beobachter mit eigener Geschwindigkeit bewegt oder nicht. Allerdings ist die Zeit in diesem Konzept nun nicht mehr konstant, sondern in einem bewegten System wie beispielsweise einer Rakete im Weltall verlangsamt. Diese Zeitdilatation oder Zeitdehnung wurde 1938 erstmals gemessen und mit einer Genauigkeit von einem Prozent bestimmt. Die jetzt von Nature Physics publizierte Arbeit ist gegenüber dieser ersten Messung 100.000 Mal genauer. “Das ist eine spektakuläre Genauigkeit, die allerdings auch notwendig ist, wenn wir die Grundlagen der Physik, also das Standardmodell testen wollen”, so Prof. Gerhard Huber.

“Innerhalb einer Messgenauigkeit von 1 zu 10 Millionen konnte am TSR Speicherring in Heidelberg die spezielle Relativitätstheorie bestätigt werden”, fasst Prof. Huber zusammen. Die Messung reiht sich damit in die Serie der Überprüfung des sogenannten Standardmodells der Physik ein, das die Elementarteilchen und die zwischen ihnen wirkenden Kräfte beschreibt, und die auch den Test der Lorentz-Invarianz, also der Gültigkeit der speziellen Relativität, einschließt.

Warum Zeit nur eine Illusion ist und was in Wirklichkeit dahinter steckt, wird im Sachbuch “Unsterbliches Bewusstsein” ISBN 978-3-8370-4351-8 von Klaus-Dieter Sedlacek erklärt.