Schlagwort-Archive: Nature

Geistermaterie lauert in der Milchstraße

Eine mysteriöse Form von Materie durchzieht unser Universum. Sie ist etwa fünf Mal häufiger als die sichtbare Materie, jedoch von nach wie vor unbekannter, „dunkler“ Natur. Dass diese mysteriöse Entität, der man den Namen “Dunkle Materie” oder Geistermaterie gab, existieren muss, belegten Forschungsarbeiten bereits in den 1970er Jahren. Erstmals ist es nun einem internationalen Wissenschaftlerteam gelungen, Dunkle Materie auch im Inneren unserer Galaxie zu belegen. Woraus Dunkle Materie  besteht, konnte allerdings nicht herausgefunden werden.

Die allgegenwärtige Präsenz der Dunklen Materie im Universum ist heute ein zentraler Grundsatz der modernen Kosmologie und Astrophysik. In verschiedenen Galaxien wurde ihre Existenz seit den 1970er Jahren mit einer Reihe von Methoden belegt. Eine dieser Methoden ist die Messung der Drehgeschwindigkeit von Gas und Sternen. Wissenschaftler können so eine Galaxie „wiegen“ und ihre Gesamtmasse bestimmen. Dabei zeigt sich, dass die gewöhnliche Materie nur einen Bruchteil des Gesamtgewichts ausmacht, den überwiegenden Teil trägt die Dunkle Materie bei.

Auch in den äußeren Bereichen unserer eigenen Galaxie, die wir bei klarem Nachthimmel als „Milchstraße“ sehen können, wurden die Astronomen mit diese Methodik fündig. Doch im inneren Bereich unserer Galaxie war es bisher unmöglich, die Anwesenheit Dunkler Materie sicher zu belegen.

Der Durchmesser unserer Galaxie beträgt etwa 100.000 Lichtjahre. Unser Sonnensystem ist etwa 26.000 Lichtjahre vom Zentrum der Milchstraße entfernt. Je näher man der Mitte kommt, desto schwieriger wird es, die Rotation des Gases und der Sterne mit der benötigten Genauigkeit zu messen.

Auf Basis der Messung von Sternenbewegungen haben nun Wissenschaftler der Technischen Universität München (TUM), der Universität Stockholm, der Freien Universität Madrid, des Internationalen Zentrums für Theoretische Physik des Südamerikanischen Instituts für Grundlagenforschung (ICTP-SAIFR) in São Paulo und der Universität Amsterdam erstmalig einen Beweis für die Anwesenheit Dunkler Materie im Inneren der Milchstraße vorgelegt. Dunkle Materie existiert danach auch im Bereich unseres Sonnensystems und in unserer direkten „kosmischen Nachbarschaft“.

In einem ersten Schritt erstellten die Forscher die umfassendste Sammlung veröffentlichter Messungen der Bewegung von Gas und Sternen in der Milchstraße. Dann berechneten sie auf Basis aktuellster Forschungsergebnisse die Rotationsgeschwindigkeit, die die Milchstraße haben müsste, wenn sie nur aus sichtbarer Materie bestünde. Der Vergleich der gemessenen und der berechneten Geschwindigkeit zeigte eindeutig, dass hier die Dunkle Materie einen entscheidenden Beitrag leistet.

„Wir konnten mit unserer Arbeit belegen, dass sich das Gas und die Sterne in unserer Galaxie ohne den Beitrag von Dunkler Materie nicht mit den beobachteten Geschwindigkeiten drehen könnten“, sagt Dr. Miguel Pato, der die Analyse an der TU München durchführte. „Allerdings wissen wir immer noch nicht, aus was die Dunkle Materie besteht. Dies ist eine der wichtigsten Wissenschaftsfragen unserer Zeit“.

Auch für geringe Entfernung vom Zentrum der Milchstraße besitzen die Daten der Forschungsarbeit eine hohe Evidenz. Sie erschließen damit neue Wege zur Bestimmung der Verteilung Dunkler Materie in unserer Galaxie. Zukünftige astronomische Beobachtungen könnten damit die Verteilung der Dunklen Materie in unserer Galaxie mit bisher unerreichter Genauigkeit bestimmen.

„Damit können wir das Verständnis der Struktur und der Entwicklung unserer Galaxie wesentlich verbessern. Und es wird präzisere Vorhersagen für die vielen Experimente ermöglichen, die weltweit nach Teilchen der Dunklen Materie suchen“, sagt Miguel Pato, der inzwischen zum Oskar Klein-Zentrum für Astroteilchen-Physik an der Universität Stockholm gewechselt ist. (Quelle: idw)

Publikation:
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato, Gianfranco Bertone
Nature Physics, advanced online publication, 9 February 2015
DOI: 10.1038/nphys3237 – Link: https://nature.com/articles/doi:10.1038/nphys3237
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Fließspuren von Wasser auf dem Mars gefunden

Dunkle Fliessspuren, wie hier im Palikir Krater, bilden sich in jedem Mars-Frühjahr. Sie gelten als Beleg für flüssiges Wasser und wurden nun erstmals am Mars-Äquator beobachtet.  Bild: NASA/JPL/University of Arizona
Dunkle Fliessspuren, wie hier im Palikir Krater, bilden sich in jedem Mars-Frühjahr. Sie gelten als Beleg für flüssiges Wasser und wurden nun erstmals am Mars-Äquator beobachtet.
Bild: NASA/JPL/University of Arizona

Bilder der NASA-Raumsonde «Mars Reconaissance Orbiter» zeigen Spuren von flüssigem Wasser in Canyons am Mars-Äquator – und damit bei möglichen Landeplätzen künftiger bemannter Missionen. Mit dieser Entdeckung knüpft ein internationales Forschungsteam mit Beteiligung des Center for Space and Habitability (CSH) der Universität Bern an frühere Beobachtungen an.

Sie sind ein «Highlight» in der Marsforschung, sagt Nicolas Thomas, Professor am Center for Space and Habitability (CSH) der Universität Bern: Auf der Oberfläche des Roten Planeten wurden Fliessspuren entdeckt, die im Frühling erscheinen, während dem Mars-Sommer wachsen und im Winter wieder verschwinden. Sie kommen in jedem Mars-Jahr an den gleichen Orten vor. Beobachtet wurden sie das erste Mal vor rund vier Jahren in moderaten südlichen Breitengraden – und sie werden als Beleg dafür gesehen, dass auf der Mars-Oberfläche flüssiges Wasser existiert. Nun hat ein internationales Team mit Berner Beteiligung Hinweise auf solche Spuren in den Canyons von «Vallis Marineris» gefunden. Diese Erkenntnisse, die im Journal «Nature Geoscience» publiziert werden, zeigen laut Nicolas Thomas, dass «flüssiges Wasser in äquatorialen Regionen – einem primären Ziel für zukünftige Landplätze von Sonden – vorkommen könnte».

Möglich wurden diese Beobachtungen durch die Kamera des Forschungsprojekts «High Resolution Imaging Science Experiment» (HiRISE), die sich an Bord der NASA-Raumsonde «Mars Reconnaissance Orbiter» befindet. Die bisherigen Auswertungen stützen die Vermutung, dass die Spuren durch flüssiges Wasser verursacht werden. «HiRISE hat gezeigt, dass der Mars viel dynamischer ist, als wir erwartet haben», erklärt Nicolas Thomas. «Wir konnten subtile Veränderungen bei der Helligkeit der Marsoberfläche beobachten, was darauf hinweist, dass ein benetzter Boden getrocknet ist.» Denn dieser zeige danach veränderte lichttechnische Eigenschaften, bei denen Salze eine Rolle spielen könnten. Um diese Beobachtungen im Labor zu reproduzieren, führt das Team des CSH Experimente mit simuliertem Mars-Boden – der zumeist aus Hawaii stammt – durch.

Publikation:

Alfred S. McEwen, Colin M. Dundas, Sarah S. Mattson, Anthony D. Toigo, Lujendra Ojha, James J. Wray, Matthew Chojnacki, Shane Byrne, Scott L. Murchie and Nicolas Thomas: Recurring slope lineae in equatorial regions of Mars, Nature Geoscience, in press, doi: 10.1038/NGEO2014

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

 

Durchbruch bei Quantenteleportation: Quantenbits auf Knopfdruck übertragen

Deterministische Quantenteleportation eines photonischen Quantenbits. Jedes Qubit, das von links in den Teleporter fliegt, verlässt den Teleporter rechts mit einem Qualitätsverlust von nur etwa 20 Prozent – ein Wert, der klassisch, d.h. ohne Verschränkung, unerreichbar ist. Quelle: University of Tokyo
Deterministische Quantenteleportation eines photonischen Quantenbits. Jedes Qubit, das von links in den Teleporter fliegt, verlässt den Teleporter rechts mit einem Qualitätsverlust von nur etwa 20 Prozent – ein Wert, der klassisch, d.h. ohne Verschränkung, unerreichbar ist.
Quelle: University of Tokyo

Mithilfe quantenmechanischer Verschränkung räumlich getrennter Lichtfelder ist es Wissenschaftlern aus Tokio und Mainz gelungen, photonische Quantenbits außerordentlich zuverlässig zu teleportieren. Rund 15 Jahre nach den ersten Versuchen auf dem Gebiet der optischen Teleportation ist damit ein entscheidender Durchbruch gelungen.

Der Erfolg des in Tokio durchgeführten Experiments beruht auf einer Hybridtechnik, bei der zwei konzeptionell verschiedene, bisher unvereinbare Ansätze verknüpft werden. „Diskrete, digitale optische Quanteninformation kann dabei kontinuierlich und damit sozusagen auf Knopfdruck übertragen werden“, erklärt Univ.-Prof. Dr. Peter van Loock von der Johannes Gutenberg-Universität Mainz (JGU). Van Loock hat als Physik-Theoretiker die experimentellen Physiker um Akira Furusawa von der Universität Tokio beraten, wie sie den Teleportationsversuch am effizientesten durchführen und eine erfolgreiche Quantenteleportation letztlich auch verifizieren können. Die Forschungsarbeiten wurden in dem renommierten Fachmagazin Nature am 15. August 2013 veröffentlicht.

Die Quantenteleportation ermöglicht den Transfer von beliebigen Quantenzuständen von einem Sender, als Alice bezeichnet, zu einem räumlich entfernten Empfänger, genannt Bob. Voraussetzung ist, dass sich Alice und Bob zunächst einen verschränkten Quantenzustand, z.B. in Form von verschränkten Photonen, über die Distanz teilen. Die Quantenteleportation ist von fundamentaler Bedeutung für die Verarbeitung von Quanteninformation (Quantencomputing) und die Quantenkommunikation. Insbesondere für die Quantenkommunikation gelten Photonen als optimale Informationsträger, da sie eine Signalübertragung mit Lichtgeschwindigkeit ermöglichen. Mit einem Photon kann man ein Quantenbit oder Qubit darstellen – analog zu einem Bit in der klassischen Informationsverarbeitung. Man spricht dann von „fliegenden Quantenbits“.

Erste Versuche zur Teleportation von einzelnen Photonen, die auch als Lichtteilchen bezeichnet werden, gehen auf den Wiener Physiker Anton Zeilinger zurück. In der Zwischenzeit wurden verschiedene Experimente durchgeführt, allerdings stieß die Teleportation eines photonischen Quantenbits mithilfe der herkömmlichen Methoden aufgrund von experimentellen Unzulänglichkeiten und grundsätzlichen Prinzipien an Grenzen.

Der Schlüssel für das Experiment in Tokio ist eine Hybridtechnik. Mit ihrer Hilfe ist es gelungen, experimentell eine vollkommen deterministische Quantenteleportation von photonischen Qubits zu erzielen, bei der die Teleportation mit außerordentlich hoher Zuverlässigkeit erfolgt. Die Genauigkeit der Übertragung liegt bei 79 bis 82 Prozent für vier unterschiedliche Qubits. Außerdem konnten die Qubits selbst bei einem geringen Grad der Verschränkung wesentlich effizienter teleportiert werden als in früheren Experimenten.

Verschränkung-on-Demand durch Lichtquetschung

Der Begriff der Verschränkung geht auf Erwin Schrödinger zurück und bezeichnet den Befund, dass zwei Quantensysteme, beispielsweise zwei Lichtteilchen, einen gemeinsamen Zustand einnehmen und in ihrem Verhalten auf stärkere Weise voneinander abhängen als es klassisch möglich ist. Bei dem Tokioter Experiment wurde durch die Verschränkung von vielen Photonen mit vielen Photonen eine kontinuierliche Verschränkung erzeugt, bei der nicht nur einzelne wenige Lichtteilchen, sondern die kompletten Amplituden und Phasen zweier Lichtfelder miteinander quantenkorreliert sind. Bisherige Experimente hatten dagegen jeweils nur ein einzelnes Photon mit einem anderen einzelnen Photon verschränkt – eine weniger effiziente Lösung. „Die Verschränkung von Photonen hat in dem Tokio-Experiment sehr gut funktioniert – praktisch auf Knopfdruck, sobald der Laser eingeschaltet wurde“, beschreibt van Loock, Professor für Theorie der Quantenoptik und Quanteninformation, den Versuch. Erreicht wurde diese kontinuierliche Verschränkung durch sogenanntes gequetschtes Licht, das im Phasenraum des Lichtfeldes die Form einer Ellipse annimmt. Ist die Verschränkung erzeugt, kann ein drittes Lichtfeld beim Sender angeheftet werden. Von dort können dann im Prinzip beliebige und beliebig viele Zustände an den Empfänger übertragen werden. „In unserem Experiment waren es genau vier ausreichend repräsentative Testzustände, die unter Benutzung der Verschränkung von Alice übermittelt wurden und bei Bob entsprechende Zustände erzeugt haben. Dank der kontinuierlichen Verschränkung ist es möglich, dass die photonischen Qubits deterministisch, also bei jedem Versuch, zu Bob übertragen werden“, ergänzt van Loock.

Frühere Experimente zur optischen Teleportation waren unterschiedlich angelegt und bis heute inkompatibel. Von physiktheoretischer Seite wurde zwar angenommen, dass die beiden unterschiedlichen Ansätze, die diskrete und die kontinuierliche Welt, zu verbinden sind. Dass es nun im Experiment mit der Hybridtechnik tatsächlich gelungen ist, stellt einen technologischen Durchbruch dar. „Jetzt nähern sich die beiden Welten an“, so van Loock.
( Quelle: idw. Veröffentlichung: Shuntaro Takeda et al. Deterministic quantum teleportation of photonic quantum bits by a hybrid technique. Nature, 15. August 2013. DOI: 10.1038/nature12366)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Bakterien produzierten Milliarden Tonnen Eisenerz

Alternierende Schichten von schwarzen und orangefarbenen Eisen- und Silikatmineralen in 2,5 bis 2,6 Milliarden Jahre alten präkambrischen gebänderten Eisenformationen (Gamohaan Hill, in der Nähe von Kuruman, Northern Cape Province, Südafrika).Foto: Andreas Kappler
Wie riesige gebänderte Gesteinsformationen entstanden sind – Veröffentlichung in “Nature”

Vor allem in Südafrika und Australien gibt es mächtige, zwei bis 3,4 Milliarden Jahre alte geologische Formationen aus Eisenoxid und Siliziumdioxid. Manche von diesen sogenannten gebänderten Eisenformationen (englisch: Banded Iron Formations, BIFs) enthalten viele Milliarden Tonnen Eisenoxid und haben eine Ausdehnung von 100.000 Quadratkilometern. Diese Eisenerze decken nicht nur einen Großteil des Weltbedarfs an Eisen, sondern sind auch von besonderem Interesse für die Wissenschaft. Die Wissenschaftler erhoffen sich von der Erforschung dieser Gesteinsformationen Aufschluss über die Entwicklung der Atmosphäre und des Klimas sowie der Evolution von Mikroorganismen in der frühen Erdgeschichte. Wie die Ablagerungen mit den auffälligen Bänderungen entstanden sind, ist bislang unbekannt. Doch die Geomikrobiologen vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen Nicole R. Posth und Florian Hegler unter der Leitung von Prof. Andreas Kappler können jetzt der Entstehungsgeschichte ein wichtiges Puzzleteil hinzufügen. Sie haben erstmals eine plausible Erklärung gefunden, auf welche Weise Mikroorganismen an der Bildung der Eisenerze beteiligt waren und wie sie auch zur Ablagerung der immer im Wechsel mit dem Eisen auftretenden Siliziumdioxid-Schichten beigetragen haben.

Das Eisen im Urozean stammte aus heißen Quellen am Ozeanboden und war als reduziertes, zweiwertiges Eisen im Wasser gelöst. Der Großteil des Eisens in den heutigen BIFs liegt jedoch als oxidiertes, dreiwertiges Eisen vor. Die Forscher wissen deshalb, dass das zweiwertige Eisen zur Ablagerung oxidiert werden musste. Im klassischen Modell zur Entstehung der BIFs wurde angenommen, dass die Oxidation durch Sauerstoff geschah, den frühe einzellige Lebewesen, die Cyanobakterien, durch ihren Stoffwechsel als Abfallprodukt gebildet hatten. Die Forschung der letzten Jahre hat gezeigt, dass zu diesem frühen Zeitpunkt in der Erdgeschichte vermutlich nur sehr wenig oder sogar kein Sauerstoff vorhanden war. Es wurde auch bezweifelt, dass es damals überhaupt schon Cyanobakterien gab. Die Bildung der ältesten BIFs kann also nicht durch Sauerstoff geschehen sein. Denn die ältesten bekannten gebänderten Eisenerze stammen bereits aus dem Präkambrium, sie sind bis zu vier Milliarden Jahre alt – das Alter der Erde wird auf 4,5 bis 4,6 Milliarden Jahre geschätzt.

Andreas Kappler und seine Arbeitsgruppe knüpften bei ihren Forschungen an eine Theorie an, die im Jahre 1969 zum ersten Mal veröffentlicht wurde: Danach sollten die Erze durch eisenoxidierende Bakterien entstanden sein, die zum Leben zwar Licht, aber keinen Sauerstoff benötigten. Allerdings wurden solche anaeroben phototrophen eisenoxidierenden Bakterien erst 1993 in der Natur entdeckt und konnten dann im Labor gezüchtet und untersucht werden. Mit Hilfe von Lichtenergie oxidieren sie zweiwertiges Eisen und setzen es zu dreiwertigem Eisen um – eben zu solchen rostigen Mineralen, wie sie in den BIFs enthalten sind. Die Tübinger Geomikrobiologen entdeckten nun, dass die Ausfällung von Eisen- und Silikatmaterialien in den BIFs natürlichen Temperaturschwankungen unterlag. Die Abhängigkeit von der Temperatur würde auch die bisher unerklärte alternierende Bänderung der Gesteinsformationen erklären: Die Eisenbakterien oxidieren zweiwertiges Eisen nur innerhalb eines bestimmten Temperaturbereiches. Wenn die Temperatur sinkt, werden weniger Eisenoxide gebildet. Im Gegenzug fällt in einer chemischen Reaktion das im Wasser gelöste Siliziumdioxid in Form von festem Silikat aus. Steigt die Temperatur erneut, werden die Eisenbakterien wieder aktiv und lagern die nächste Schicht Eisenminerale ab – und so weiter. Dadurch lässt sich die typische Wechsellagerung von Eisenoxid- und Silikatmineralien erklären.

Durch ihre Arbeiten können die Tübinger Wissenschaftler nicht nur erstmals erklären, wie Mikroorganismen an der Bildung der Bänderung der BIFs beteiligt sind. Die Forschungsergebnisse geben auch weitere Hinweise darauf, dass zu dieser frühen Zeit auf der Erde sauerstoffbildende Bakterien wie die Cyanobakterien nicht die wichtigste Rolle gespielt haben oder vielleicht noch gar nicht vorhanden waren. Damit hätte es auch noch keinen beziehungsweise nur wenig Sauerstoff in der Atmosphäre gegeben. Stattdessen dominierten vor einigen Milliarden Jahren andere Mikroben wie die von den Tübingern untersuchten Eisenbakterien die Ozeane. (Quelle: idw)

Elektronen an zwei Orten gleichzeitig

Video: Die Quantenphysik

In einer Art molekularem Doppelspaltexperiment haben Wissenschaftler des Fritz-Haber-Instituts (FHI) der Max-Planck Gesellschaft in Zusammenarbeit mit Forschern vom California Institute of Technology in Pasadena/USA erstmals an Elektronen nachgewiesen, dass diese gleichzeitig Eigenschaften von Welle und Teilchen besitzen und quasi per Knopfdruck zwischen beiden Zuständen hin- und hergeschaltet.

Vor hundert Jahren begann man den in der Naturphilosophie postulierten dualen Charakter der Natur auch auf der Ebene elementarer physikalischer Vorgänge schrittweise zu erkennen. Albert Einstein war der erste, der 1905 diese Konsequenz aus Plancks Quantenhypothese zog. Er ordnete dem eindeutig als elektromagnetische Welle bekannten Photon Teilchencharakter zu. Dies ist die Quintessenz seiner Arbeit zum Photoeffekt. Später war es vor allem deBroglie, der 1926 erkannte, dass alle uns als Teilchen bekannten Bausteine der Natur – Elektronen, Protonen etc. – sich unter bestimmten Bedingungen wie Wellen verhalten.
Die Natur in ihrer Gesamtheit ist also dual; kein einziger ihrer Bestandteile ist nur Teilchen oder Welle. Niels Bohr führte zum Verständnis dieser Tatsache 1923 das Korrespondenz-Prinzip ein, das vereinfacht besagt: Jeder Bestandteil der Natur hat sowohl Teilchen- als auch Wellencharakter und es hängt nur vom Beobachter ab, welchen Charakter er gerade sieht. Anders gesagt: Es hängt vom Experiment ab, welche Eigenschaft – Teilchen oder Welle – man gerade misst. Dieses Prinzip ist als Komplementaritätsprinzip in die Geschichte der Physik eingegangen.

Albert Einstein war diese Abhängigkeit der Natureigenschaften vom Beobachter Zeit seines Lebens suspekt. Er glaubte, es müsse eine vom Beobachter unabhängige Realität geben. Doch die Quantenphysik hat die Tatsache, dass es keine unabhängige Realität zu geben scheint, im Laufe der Jahre einfach als gegeben akzeptiert, ohne sie weiter zu hinterfragen, da alle Experimente sie immer wieder und mit wachsender Genauigkeit bestätigt haben.

Bestes Beispiel ist das Young’sche Doppelspaltexperiment. Bei diesem Doppelspaltexperiment lässt man kohärentes Licht auf eine Blende mit zwei Schlitzen fallen. Auf einem Beobachtungsschirm hinter der Blende zeigt sich dann ein Interferenzmuster aus hellen und dunklen Streifen. Das Experiment kann aber nicht nur mit Licht, sondern auch mit Teilchen wie z. B. Elektronen durchgeführt werden. Schickt man einzelne Elektronen nacheinander durch den offenen Young’schen Doppelspalt, erscheint auf der dahinterstehenden Photoplatte ein streifenförmiges Interferenzmuster, das keinerlei Information über den Weg, den das Elektron genommen hat, enthält. Schließt man jedoch einen der beiden Spalte, so erscheint auf der Photoplatte ein verwaschenes Abbild des jeweils offenen Spaltes, aus dem man den Weg des Elektrons direkt ablesen kann. Eine Kombination aus Streifenmuster und Lagebild ist in diesem Doppelspaltexperiment jedoch nicht möglich, dazu bedarf es eines molekularen Doppelspaltexperiments.

Obwohl jedes Elektron einzeln durch einen der beiden Spalte zu laufen scheint, baut sich am Ende ein wellenartiges Interferenzmuster auf, als ob sich das Elektron beim Durchgang durch den Doppelspalt geteilt hätte, um sich danach wieder zu vereinen. Hält man aber einen Spalt zu oder beobachtet man, durch welchen Spalt das Elektron geht, verhält es sich wie ein ganz normales Teilchen, das sich zu einer bestimmten Zeit nur an einem bestimmten Ort aufhält, nicht aber an beiden gleichzeitig. Je nachdem also, wie man das Experiment ausführt, befindet sich das Elektron entweder an Ort A oder an Ort B oder an beiden gleichzeitig.
Das diese Doppeldeutigkeit erklärende Bohrsche Komplementaritäts-Prinzip fordert aber zumindest, dass man nur eine der beiden Erscheinungsformen zu einer gegebenen Zeit in einem gegebenen Experiment beobachten kann – entweder Welle oder Teilchen, aber nicht beides zugleich. Entweder ist ein System in einem Zustand des wellenartigen “Sowohl-als-auch” oder aber des teilchenartigen “Entweder-oder” in Bezug auf seine Lokalisierung.

In jüngster Zeit hat eine Klasse von Experimenten ergeben, dass diese verschiedenen Erscheinungsformen der Materie ineinander überführbar sind, das heißt, man kann von einer Form in die andere schalten und unter bestimmten Bedingungen wieder zurück. Diese Klasse von Experimenten nennt man Quantenmarker und Quantenradierer. Sie haben in den letzten Jahren an Atomen und Photonen und seit jüngstem auch an Elektronen gezeigt, das es ein Nebeneinander von “Sowohl-als-auch” und “Entweder-oder” für alle Formen der Materie gibt, also eine Grauzone der Komplementarität. Es gibt demzufolge experimentell nachweisbare Situationen, in denen die Materie sowohl als Welle aber auch als Teilchen gleichzeitig in Erscheinung tritt.

Beispiele dafür sind die Atom-Interferometrie, wo dieses Verhalten 1997 erstmalig bei Atomen, d.h. zusammengesetzten Teilchen, gefunden wurde. In der Ausgabe [nature, 29. September 2005] berichten die Berliner Max-Planck-Forscher gemeinsam mit Forschern vom California Institute of Technology in Pasadena/USA nun von molekularen Doppelspaltexperimenten. Diese beruhen darauf, dass sich Moleküle mit identischen und damit spiegelsymmetrischen Atomen wie ein von der Natur aufgebauter mikroskopisch kleiner Doppelspalt verhalten. Dazu gehört Stickstoff, wo sich jedes Elektron – auch die hochlokalisierten inneren Elektronen – an beiden Atomen gleichzeitig aufhält. Ionisiert man nun ein solches Molekül etwa mit weicher Röntgenstrahlung, führt diese Eigenschaft zu einer wellenartig streng gekoppelten Emission eines Elektrons von beiden atomaren Seiten, genauso wie im Doppelspaltexperiment mit Einzelelektronen.

Die Experimente wurden von Mitarbeitern der Arbeitsgruppe “Atomphysik” des FHI an den Synchrotronstrahlungslaboren BESSY in Berlin und HASYLAB bei DESY in Hamburg durchgeführt. Die Messungen mittels einer Multi-Detektoranordnung für kombinierten Elektronen- und Ionen-Nachweis fanden hinter so genannten Undulator-Strahlrohren statt, die weiche Röntgenstrahlung mit hoher Intensität und spektraler Auflösung liefern. Quelle: idw

Wenn sich jedes Elektron an zwei Orten gleichzeitig aufhalten kann, wie im vorletzten Absatz angeführt, dann hat das Folgen für unser Weltbild. Welche Folgen das sind, ist im Sachbuch mit dem Titel  Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen näher beschrieben.

Die Realisierung von Quantencomputern rückt näher


(idw). Die Eigendrehung der Elektronen – der “Spin” – liegt in der heutigen Elektronik noch brach. Könnte man ihn als Informationsträger nutzen, würde sich die Rechenleistung elektronischer Bauteile schlagartig vervielfachen. Bochumer Physikern ist es zusammen mit Kollegen aus Dortmund, St. Petersburg und Washington jetzt gelungen, den Elektronenspin auszurichten, zum kontrollierten “Torkeln” zu bringen und auszulesen. Mittels optischer Impulse konnten sie die Spins der Elektronen auch jederzeit beliebig neu ausrichten.
“Das ist der erste, wichtige Schritt zu einer Adressierung dieser ‘quanten bits’, die in künftigen Datenübertragungssystemen und Rechnern Einzug halten werden”, freut sich Prof. Dr. Andreas Wieck. Die Forscher berichten in NATURE Physics.

Komplexe Rechenoperationen auf kleinstem Raum

Die gesamte heutige Elektronik gründet sich auf elektrische Ladung: Wenn eine Speicherzelle (Bit) elektrische Ladung enthält, entspricht dies logisch “1”, ist keine Ladung enthalten, entspricht dies logisch “0”. Aber Elektronen enthalten nicht nur Ladung – sie drehen sich auch wie ein Kreisel um die eigene Achse und erzeugen so ein Magnetfeld, ähnlich dem der Erde. Durch das Anlegen eines äußeren Magnetfelds kann man dieses Kreiseln beschleunigen oder verlangsamen, den “Kreisel” zum Torkeln bringen und seine Achse in fast beliebige Winkel kippen. Wenn man diese vielfältigen Möglichkeiten als Informationsträger nutzt, kann man mit einem Elektron sehr viel mehr Information als nur “0” und “1” speichern. Darüber hinaus können benachbarte Elektronen, da sie wie zwei Pinwand-Magnete Kräfte aufeinander ausüben, in verschiedene Konfigurationen gebracht werden, was die Datenspeicherung und -verarbeitung noch komplexer gestalten kann. Solche so genannten Quantenbits (“qubits”) können schon in geringer Anzahl von nur einigen zig qubits anstelle einiger Millionen Bits sehr komplexe Rechenvorgänge ausführen.

Spins einsperren in Indium-Arsenid-Inseln

Natürlich ergibt ein einzelnes Elektron nur wenig messbare Wirkung. Dadurch sind Einzel-Elektronenmessungen nur mit höchstempfindlichen Instrumenten unter großen Schwierigkeiten durchführbar. Eine Spezialität des internationalen Forscherteams ist es daher, rund eine Million Elektronen in jeweils fast genau gleiche Indium-Arsenid-Inseln (“Quantendots”) einzusperren und ihre Wirkung zu addieren. Diese “ensemble”-Messungen ergeben um sechs Größenordnungen stärkere Signale, die einfach aufzuzeichnen und sehr robust sind. “Entgegen den Vorurteilen vieler internationaler Konkurrenten verhalten sich dabei alle beteiligten Elektronenspins genau gleich und die mikroskopischen Effekte können daher sehr einfach gemessen werden”, so Wieck.

Quantendots optisch schalten

In der in “NATURE” veröffentlichten Studie ist es nun gelungen, diese Elektronenspins nicht nur auszurichten, sondern auch optisch mit einem Laserpuls zu beliebigen Zeitpunkten in eine gewünschte Richtung zu drehen und diese Richtung mit einem weiteren Laserpuls auszulesen. Dies ist der erste wichtige Schritt, um qubits zu “adressieren” und zu beeinflussen. “Das Interessante ist dabei, dass diese Elektronen in Festkörper eingeschlossen sind, man also nicht wie z.B. bei der Quantenoptik aufwändige Höchstvakuumtechnik und allseitigen Lichteinschluss braucht, um sie dauerhaft in einem Bauelement halten zu können”, unterstreicht Prof. Wieck. Das Höchstvakuum wird nur einmal bei der Herstellung der Quantendots in Bochum benötigt, danach ist das Halbleitersystem gegen Lufteinfluss versiegelt, langlebig und zuverlässig wie alle heute schon verwendeten Transistoren und Speicherzellen.

Die Diagramme zeigen das “Torkeln” der Spins (Amplitude der Schwingung, nach oben aufgetragen) nach einem Ausrichtungs-Laserpuls in Abhängigkeit der Zeit. Eine Schwingungsperiode entspricht einem vollen “Torkel”-Umlauf. Wie zu erwarten, nimmt die Stärke (Amplitude) mit der Zeit bei allen roten Kurven ab. Nach 1,2 Nanosekunden (ns) wird ein Laser-Kontrollpuls eingestrahlt, der die Ausrichtung der Spins schlagartig verändert, was man an der Phase der blauen und schließlich grünen Kurve sehen kann: Sie ist genau in Gegenphase zur schwarzen unteren Kurve, die ohne Kontrollpuls aufgenommen wurde. Zusätzlich schaukelt sich dieses Torkeln in Gegenphase bei 2,4 ns auf, sodass das Signal dann besonders groß wird, was die Auslesung erheblich erleichtert.

Titelaufnahme

A. Greilich, Sophia E. Economou, S. Spatzek, D. R. Yakovlev, D. Reuter, A. D. Wieck, T. L. Reinecke & M. Bayer: Ultrafast optical rotations of electron spins in quantum dots. In: NATURE Physics, 22.3.2009, DOI 10.1038/NPHYS1226

Verblüffende Mathematikfähigkeiten von Bienen

(idw). Ein Mensch bekommt ganz kurz eine Schachtel mit Bohnen gezeigt. Er soll sagen, wie viele es sind. Liegen bis zu vier Bohnen drin, stimmt die Antwort immer, bei fünf und mehr Bohnen ist sie meist falsch. Ein ähnliches Experiment haben Forscher nun mit Bienen gemacht – das Ergebnis ist verblüffend.

Dass Menschen eine Menge aus vier oder weniger Objekten stets fehlerfrei schätzen, ist seit 1871 bekannt. Es war der englische Ökonom W.S. Jevons, der das Bohnen-Experiment durchführte und die Ergebnisse im Wissenschaftsjournal Nature publizierte. Ab fünf und mehr Bohnen konnten seine Versuchspersonen die genaue Menge nur dann nennen, wenn sie länger in die Schachtel sehen und die Bohnen zählen durften.

Mengen aus weniger als fünf Gegenständen auf einen Blick erfassen und voneinander unterscheiden: Mit dieser Fähigkeit steht der Mensch nicht alleine da. Auch Affen, Tauben und andere Wirbeltiere können das, wie spätere Untersuchungen gezeigt haben.

Sogar Honigbienen sind dazu in der Lage. Das berichten Forscher vom Biozentrum der Universität Würzburg mit Kollegen aus Canberra (Australien) im Online-Journal PLoS ONE. “Damit haben wir erstmals nachgewiesen, dass auch wirbellose Tiere zahlenkompetent sind”, sagt Professor Jürgen Tautz von der Würzburger Beegroup.

Ablauf der Experimente

Wie die Wissenschaftler das herausfanden? Sie ließen ihre Bienen zu zwei nebeneinander stehenden Tafeln fliegen, die optisch unterschiedlich gestaltet waren. Auf der einen Tafel waren zwei Objekte abgebildet, auf der anderen nur eines.

Jede Tafel hatte außerdem ein Loch, durch das die Bienen fliegen konnten. Hinter der Tafel mit den zwei Objekten drauf fanden sie stets eine Belohnung, nämlich ein Schälchen mit zuckersüßem Wasser. Schnell hatten sie gelernt, wo das Futter versteckt war, und flogen nur noch zur Tafel mit den zwei Objekten.

Nun stellten die Forscher die Bienen auf die Probe. Sie veränderten die Anordnung der Tafeln sowie Anzahl, Farbe und Form der darauf abgebildeten Objekte.

Ergebnis: Die Bienen flogen immer zu der Tafel, auf der zwei Objekte zu sehen waren. Ob die Tafel rechts oder links stand, ob es sich bei den Gegenständen um rote Äpfel oder gelbe Punkte handelte, war ihnen egal – nur zwei mussten es sein. Zwei Objekte bedeuten Futter, das hatten die Bienen zuvor gelernt. Die richtige Tafel konnten sie auf Anhieb identifizieren.

Diesen Versuch spielten die Forscher wieder und wieder durch. Sie trainierten die Bienen mal auf Tafelpaare mit zwei und drei Objekten, dann auf welche mit drei und vier Objekten. Immer fanden die Bienen schnell heraus, zu welcher Tafel sie fliegen mussten. Erst bei Tafelpaarungen mit vier und fünf oder höheren Objektmengen scheiterten sie.

Vorteil für die Bienen

Kleine Mengen korrekt zu schätzen – worin könnte die biologische Bedeutung dieser Leistung für den Bienen-Alltag liegen? Vielleicht machen die Insekten davon Gebrauch, um schnell die Zahl der Blüten an einem Zweig oder die Zahl anderer Bienen auf einer Blüte abschätzen zu können. Und um sich dann ebenso schnell zwischen den Optionen “Landen” oder “Durchstarten” zu entscheiden.

Wozu die Bienen diese neu entdeckte Fähigkeit wirklich nutzen, das erforscht der Würzburger Doktorand Mario Pahl. Er hält sich zurzeit in Canberra auf – dort ist jetzt Sommer, und so kann er im Freiland mit Bienen experimentieren.

Antike Hochkulturen: Bruch zwischen vier und fünf

Auf eine kulturelle Besonderheit weist Professor Hans Joachim Gross, Mitglied der Beegroup und emeritierter Inhaber des Würzburger Lehrstuhls für Biochemie, angesichts des neuen Forschungsergebnisses hin: In vielen antiken Hochkulturen gibt es einen auffallenden Bruch beim Übergang von der Zahl 4 zur Zahl 5.

In der frühesten römischen Antike beispielsweise wurden die Ziffern 1 bis 8 so geschrieben: I, II, III, IIII, V, VI, VII, VIII. Im antiken Südarabien schrieben die Menschen I, II, III, IIII, U, UI, UII, UIII. Und bei den Maya in Mittelamerika sahen die Zahlen von 1 bis 8 so aus:*, **, ***, ****, I, *I, **I, ***I.

“In diesen Hochkulturen mit einem entwickelten Kalender- und Rechnungswesen hat man bewusst oder unbewusst gefühlt oder verstanden, dass Objektzahlen bis vier ohne zu zählen richtig und fehlerfrei erkannt werden und dass bereits bei fünf Punkten oder Strichen gezählt werden muss. So hat man für die Zahl fünf eigene, neue Zeichen erfunden”, so die Wissenschaftler.

Schneller rechnen: Eigene Zeichen für fünf und zehn

Der Mensch von heute? Wenn er mit Strichlisten zählt, dann macht er bis zur Zahl vier jeweils einen Strich (I, II, III, IIII). Aber statt IIIII für fünf zu schreiben, streicht er einfach die IIII mit einem Querstrich durch – und hat damit ein neues Zeichen geschaffen, das ihm das Abzählen von fünf Strichen erspart.

“Die Erfindung eines eigenen, neuen Zeichens für die Fünf beziehungsweise die Zehn macht es dem Menschen möglich, auch Zahlen wie VII und VIII auf einen Blick als sieben oder acht zu erkennen – ohne zählen zu müssen”, sagen die Forscher. Auf diese Weise könne man erheblich schneller rechnen. Dasselbe gelte für XII, XIII oder XXII etc.

“Number-based visual generalisation in the honeybee”, Hans J. Gross, Mario Pahl, Aung Si, Hong Zhu, Jürgen Tautz & Shaowu Zhang, PLoS ONE 4(1): e4263. doi:10.1371/journal.pone.0004263. Online publiziert am 28. Januar 2009

Weitere Informationen: Prof. Dr. Jürgen Tautz, T (0931) 31-84319, tautz@biozentrum.uni-wuerzburg.de, und Prof. Dr. Hans Joachim Gross, T (0931) 31-84027, https://www.beegroup.de

Durchbruch: Interferon hilft bei der Eliminierung von Krebsstammzellen

Wie entsteht Krebs?

Der Immunbotenstoff Interferon alpha erweckt schlafende Blutstammzellen im Knochenmark zur Aktivität und macht sie dadurch für die Wirkung vieler Medikamente angreifbar. Dies veröffentlichten Wissenschaftler aus dem Deutschen Krebsforschungszentrum gemeinsam mit Kollegen aus Lausanne in der Zeitschrift Nature. Auch Tumorstammzellen, so vermuten die Forscher, lassen sich so zur Teilung anregen und damit für die Behandlung mit Krebsmedikamenten sensibilisieren.

Nach Verletzungen mit Blutverlust muss der Körper das lebensnotwendige Blutvolumen schnell wiederherstellen. Dafür sorgt eine bestimmte Gruppe von Stammzellen im Knochenmark. Diese Blutstammzellen verbringen ihr gesamtes Leben in einer Art Schlafzustand, aus dem sie erst durch Verletzung und Blutverlust zur Aktivität geweckt werden. Unverzüglich beginnen sie, sich zu teilen, bis der Verlust an Blutzellen wieder ausgeglichen ist. Dies zeigten kürzlich Wissenschaftler um Professor Andreas Trumpp aus dem Deutschen Krebsforschungszentrum.

Der Dauerschlaf ist ein wichtiger Schutzmechanismus der Stammzellen: Erstens bewahren sie so ihr Erbgut vor Genveränderungen, die sich vor allem während einer Zellteilung ereignen. Darüber hinaus entgehen sie im Schlaf auch der Attacke vieler Zellgifte, die nur auf sich teilende Zellen wirken.

Bislang war unbekannt, welche Signalmoleküle die Stammzellen tatsächlich aus ihrem Schlummer wecken. Andreas Trumpp und Marieke Essers aus seinem Team veröffentlichten nun in der Zeitschrift Nature, dass Interferon alpha, ein Botenstoff des Immunsystems, wie ein Wecker auf Blutstammzellen wirkt. Die Wissenschaftler zeigten damit zum ersten Mal, dass Interferon alpha die Funktion von Stammzellen direkt beeinflussen kann.

Interferon alpha wird von Immunzellen ausgeschüttet, wenn der Organismus von Bakterien oder Viren bedroht wird. Die Wissenschaftler lösten die Interferonproduktion in Mäusen aus, indem sie ihnen eine Substanz verabreichten, die den Tieren eine Virusinfektion vorgaukelt. Daraufhin kam es zu einem starken Anstieg der Teilungsrate der Blutstammzellen. In Kontrolltieren dagegen, die das Interferonsignal nicht verarbeiten können, führte die Substanz nicht zum Aufwachen der Stammzellen.

Einen weiteren Beweis für die Wirkung des Interfon alpha erzielten die Forscher mit dem Medikament 5-Fluorouracil, einem Zellgift, das häufig bei Brust- und Darmkrebs eingesetzt wird: Schlafende Stammzellen sind resistent gegen das Medikament, das seine Wirkung nur während der Teilung entfaltet. Erhalten die Tiere jedoch vor der 5-Fluorouracil-Behandlung Interferon alpha, so versterben sie nach kurzer Zeit an Blutarmut. Der Grund dafür: Durch die Interferon-Vorbehandlung wurden die ruhenden Stammzellen in die Zellteilung gezwungen und damit für die 5-FU-Wirkung sensibilisiert und abgetötet. Daher stehen nach kurzer Zeit keine Stammzellen mehr zur Verfügung, die Nachschub an kurzlebigen reifen Blutzellen wie Erythrozyten und Blutplättchen liefern.

Die Forscher begeistert an diesem Ergebnis besonders die Aussicht, dass der neu entdeckte Wirkmechanismus möglicherweise die Krebsbehandlung verbessern kann: “Eventuell können wir mit Interferon alpha nicht nur Blutstammzellen, sondern ebenso Tumorstammzellen aus dem Schlafzustand wecken und damit ihre oft beobachtete Resistenz gegen viele Krebsmedikamente brechen”, vermutet Andreas Trumpp.

Eine klinische Beobachtung weist bereits darauf hin, dass diese Vermutung mehr ist als reines Wunschdenken: Patienten, die an dem Blutkrebs chronisch myeloische Leukämie leiden und mit dem Medikament Glivec behandelt werden, erleiden nach Absetzen des Medikaments fast immer Rückfälle. Einigen Erkrankten wurde jedoch vor der Glivec-Therapie Interferon alpha verabreicht. Diese Patienten erlebten überraschenderweise lange rückfallfreie Phasen ohne jegliche Medikation. “Wir gehen davon aus”, erklärt Andreas Trumpp, “dass die Leukämie-Stammzellen durch die Interferongabe geweckt und damit für die Eliminierung durch das Medikament Glivec sensibilisiert wurden.” (Quelle: idw)

Ethisch korrekte Stammzellen jetzt aus Hodengewebe?

Video: Ausschnitt aus einer Patientendokumentation zur Stammzellentherapie. Aufgenommen im XCell-Center.

Ethisch unproblematischer Weg zu individueller Zelltherapie – Veröffentlichung in “Nature”

Stammzellen aus Embryonen können sich noch in alle Gewebe eines Lebewesens zur Bildung von Herz, Leber, Blut, Gehirn und Haut differenzieren – schließlich entsteht der ganze Organismus aus einer befruchteten Eizelle. Will man die aus dem Embryo gewonnenen Stammzellen vom Menschen in der Forschung oder zur Entwicklung von medizinischen Therapien nutzen, stellen sich viele ethische Probleme. Denn bei der Gewinnung der Stammzellen stirbt der Embryo ab. Wissenschaftler suchen daher nach anderen Alternativen zur Herstellung von Stammzellen: Auch im Körper von Erwachsenen bleiben lange oder sogar lebenslang hochflexible Zellen erhalten, damit sich bestimmte Gewebe auch in höherem Alter erneuern können. Solche Zellen, die man ohne größere Verletzungen aus dem Körper von Erwachsenen gewinnen kann, wollen Wissenschaftler als sogenannte adulte Stammzellen nutzbar machen. Nun ist es Forschern der Universität und des Universitätsklinikums Tübingen unter der Leitung von Prof. Thomas Skutella und seinem Team der Abteilung für experimentelle Embryologie gelungen, stabile Stammzellen aus Spermatogonien des menschlichen Hodengewebes von Erwachsenen zu generieren und in Zusammenarbeit mit Prof. Arnulf Stenzl und einer ganzen Reihe von Wissenschaftlern der Universität Tübingen und mit Kölner und Londoner Forschern im Vergleich zu humanen embryonalen Stammzellen zu charakterisieren. Die menschlichen adulten Stammzellen verhielten sich in Tests fast genauso wie die embryonalen Stammzellen und ließen sich in alle drei Keimblätter der Körpergewebe differenzieren. Nach Einschätzung der Wissenschaftler eröffnet ihre Methode der Gewinnung von adulten Stammzellen in Zukunft eventuell einen einfachen und ethisch unumstrittenen Weg zu individuellen Zelltherapien.

Die Zellen aus dem Hodengewebe, an denen die Wissenschaftler geforscht haben, wurden durch eine routinemäßige Gewebeentnahme bei erwachsenen Männern gewonnen. Diese Zellen stellen unter normalen Bedingungen Spermatozyten, und später die Spermien her. Die Wissenschaftler haben das Gewebe einer besonderen Selektionsmethode unterzogen, um die flexiblen, spermienbildenden Zellen gezielt aus dem restlichen Körpergewebe zu isolieren. Dann entwickelten sie optimale Kulturbedingungen, unter denen die Zellen nicht ihr gewohntes Programm zur Bildung von Spermien durchlaufen, sondern eine weit größere Umprogrammierung vornehmen. Außerdem musste sichergestellt werden, dass sich die Zellen mit den wertvollen Stammzelleigenschaften gut vermehren und stabile Zellkulturen bilden konnten. Dabei muss zum Beispiel erprobt werden, welche Wachstumsfaktoren in welcher Menge benötigt werden.

Unter den Versuchsbedingungen im Labor erwiesen sich die aus Hodengewebe gewonnenen adulten Stammzellen als fast genauso vielseitig wie embryonale Stammzellen und konnten ganz unterschiedliche Zell- und Gewebetypen bilden. Getestet wurde die Methode an insgesamt 22 Hodengewebeproben von verschiedenen Männern. Die Wissenschaftler gehen davon aus, dass sich die einzelnen Schritte ihrer Vorgehensweise weiter optimieren lassen. Doch der Aufwand könnte sich lohnen, denn die adulten menschlichen Stammzellen haben gegenüber den embryonalen Stammzellen einige bestechende Vorteile: Zum einen sind sie wegen ihrer unkomplizierten Gewinnung ethisch nicht umstritten. Zum anderen könnte man sie für die Behandlung von Krankheiten für jeden Patienten individuell mit dem eigenen Erbgut und hundertprozentig passenden Gewebemerkmalen herstellen. Dadurch werden sie vom Immunsystem nicht abgestoßen. Eine ähnliche pluripotente Stammzellquelle ist bei Frauen bisher nicht entdeckt worden. Bis Stammzellen tatsächlich zur Therapie von Erkrankungen eingesetzt werden können, ist es noch ein weiter Weg. Doch ein wichtiger Schritt dorthin könnte mit den neuen Forschungsergebnissen erreicht sein.

Quelle: idw/Veröffentlichung: Conrad et al., “Generation of pluripotent stem cells from adult human testis”, Nature, Online-Vorabveröffentlichung

Ist Zeit nur eine Illusion? Physiker experimentieren mit der Zeitdehnung

(idw). Die Zeitdehnung ist einer der faszinierendsten Aspekte der speziellen Relativitätstheorie Einsteins, weil er die Vorstellung einer absolut gültigen Zeit abschafft: Uhren in bewegtem Zustand ticken langsamer. Im Experiment konnte die Zeitdehnung zum ersten Mal von Ives und Stilwell 1938 mithilfe des Dopplereffekts beobachtet werden. Physikern der Johannes Gutenberg-Universität Mainz ist es nun gelungen, die Zeitdehnung mit bisher nicht erreichter Genauigkeit zu messen. Die Wissenschaftler verwenden dazu einen Ansatz, der die Speicherung und Kühlung von Lithium-Ionen und die Messung ihrer optischen Frequenzen mit einem Frequenzkamm verbindet. “Die Erforschung der Zeitdehnung ist nicht nur für die Grundlagenphysik von Bedeutung, sondern hat für die satellitengestützte Positionsbestimmung mit GPS und viele andere Anwendungen in der Kommunikationstechnologie eine ganz praktische Funktion”, erklärt Univ.-Prof. Dr. Gerhard Huber von der Universität Mainz dazu. Die Arbeit, die in Kooperation mit Wissenschaftlern aus Heidelberg, Garching und Winnipeg entstanden ist, wurde vom Wissenschaftsmagazin Nature Physics online veröffentlicht.

Seit ihrer Einführung 1905 bildet die spezielle Relativitätstheorie Albert Einsteins die Grundlage für alle Beschreibungen physikalischer Vorgänge. Ein wesentliches Prinzip dieser Theorie besagt, dass die Lichtgeschwindigkeit immer konstant bleibt, unabhängig davon, ob sich ein Beobachter mit eigener Geschwindigkeit bewegt oder nicht. Allerdings ist die Zeit in diesem Konzept nun nicht mehr konstant, sondern in einem bewegten System wie beispielsweise einer Rakete im Weltall verlangsamt. Diese Zeitdilatation oder Zeitdehnung wurde 1938 erstmals gemessen und mit einer Genauigkeit von einem Prozent bestimmt. Die jetzt von Nature Physics publizierte Arbeit ist gegenüber dieser ersten Messung 100.000 Mal genauer. “Das ist eine spektakuläre Genauigkeit, die allerdings auch notwendig ist, wenn wir die Grundlagen der Physik, also das Standardmodell testen wollen”, so Prof. Gerhard Huber.

“Innerhalb einer Messgenauigkeit von 1 zu 10 Millionen konnte am TSR Speicherring in Heidelberg die spezielle Relativitätstheorie bestätigt werden”, fasst Prof. Huber zusammen. Die Messung reiht sich damit in die Serie der Überprüfung des sogenannten Standardmodells der Physik ein, das die Elementarteilchen und die zwischen ihnen wirkenden Kräfte beschreibt, und die auch den Test der Lorentz-Invarianz, also der Gültigkeit der speziellen Relativität, einschließt.

Warum Zeit nur eine Illusion ist und was in Wirklichkeit dahinter steckt, wird im Sachbuch “Unsterbliches Bewusstsein” ISBN 978-3-8370-4351-8 von Klaus-Dieter Sedlacek erklärt.