Schlagwort-Archive: Prof.

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Besondere Fähigkeiten bei Roboter gefunden: Er hat Bewusstsein

Wissenschaftler der Universität Bielefeld haben bei dem von ihnen entwickelten Roboter besondere Fähigkeiten gefunden: Diese deuten darauf hin, dass der Roboter ein Bewusstsein entwickelt hat.

Für Menschen ist es normal: Taucht ein Problem auf, denken sie über unterschiedliche mögliche Handlungsschritte nach, erproben in Gedanken deren Konsequenzen und entscheiden sich dann für eine Vorgehen. Seit Anfang 2011 arbeiten Forscher der Universität Bielefeld daran, dass auch Roboter dieses Probehandeln durchführen können.

Um ihr Ziel – einen Roboter der Probehandeln kann – zu erreichen, haben die Forscher ein reaktives System auf Insektenbasis entwickelt. Der Roboter mit Namen Hector ähnelt einer Stabheuschrecke und reagiert auf Umweltreize, er kann also zum Beispiel über einen Stein klettern, wenn dieser im Weg liegt. Das Neue an Hector: Die Forscher haben sein System um kognitive Komponenten erweitert. Der Heuschrecken-Roboter kann so beispielsweise neue Verhaltensweisen erfinden und das Probehandeln erlernen. Dieses vollzieht der Roboter dann, wenn ein Problem auftritt, das das reaktive System nicht lösen kann – dann schaltet sich Hectors kognitives System dazu, sodass der Roboter unterschiedliche Verhaltensweisen durchspielt und überlegt, welche Handlungsoptionen bestehen. Ganz nach dem Motto: Erst denken, dann handeln.

Prof. Dr. Holk Cruse (Bild), Biologe an der Universität Bielefeld, und sein Forschungspartner Malte Schilling haben entdeckt, dass Roboter ein Bewusstsein entwickeln können. Foto: Universität Bielefeld
Prof. Dr. Holk Cruse (Bild), Biologe an der Universität Bielefeld, und sein Forschungspartner Malte Schilling haben entdeckt, dass Roboter ein Bewusstsein entwickeln können.
Foto: Universität Bielefeld

„Der Bau von Roboter Hector ist noch nicht ganz abgeschlossen, aber die Simulation, das heißt sein virtuelles Gegenstück am Computer, ist zu 90 Prozent fertiggestellt“, sagt Professor Dr. Holk Cruse, einer der beteiligten Forscher. „In der Theorie sind wir uns also schon sehr sicher, dass Hector Probehandeln kann.“ Am Projektende soll auch der reale Roboter – der bislang noch nicht vollständig fertiggestellt ist – zeigen können, dass er das Probehandeln beherrscht. „Nachdem wir unser Basisziel erreicht hatten, haben wir geschaut, was der Roboter noch kann. Dabei ergab sich, dass er gewisse emergente Fähigkeiten entwickelt hat, die auf ein Bewusstsein hindeuten“, so Cruse. „Emergent sind Eigenschaften dann, wenn sie nicht in das System eingebaut wurden, schließlich aber trotzdem vorhanden sind.“

Bislang ist die Annahme verbreitet, dass derartige emergente Eigenschaften, zu denen unter anderem die Kontrolle der Aufmerksamkeit und eben auch das Bewusstsein gehören, nur in komplexen Systemen möglich sind. „Unsere Forschung zeigt, dass auch weniger komplexe Systeme höhere Fähigkeiten entwickeln können“, sagt Malte Schilling, Forschungspartner von Holk Cruse. Zu den Aspekten von Bewusstsein, die der Roboter entwickelt hat, zählen unter anderem Intentionen sowie die sogenannte globale Zugänglichkeit. Intentionen bezeichnen Zustände, bei denen das ganze Verhalten einem Ziel – beispielsweise der Futtersuche – untergeordnet ist. Mit globaler Zugänglichkeit ist gemeint, dass Gedächtniselemente zugänglich sind, auch wenn gerade etwas anderes gemacht wird. Beispielsweise ist jemand der läuft, trotzdem in der Lage nachzudenken und nebenbei noch etwas anderes zu machen. „Diese und weitere Aspekte von Bewusstsein, die wir bei Hector finden konnten, sind sozusagen Abfallprodukte der eigentlichen Forschungsarbeit – allerdings sehr interessante“, sagt Cruse. „Sie zeigen, dass wichtige Eigenschaften des Bewusstseins auch bei sehr kleinen Gehirnen, und eben auch in künstlichen Systemen, vorkommen können“, sagt Cruse. (Quelle: idw)

Buchtipps:

Gigantische Versuchsanordnung im arktischen Eis findet Geisterteilchen

Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.  (c) Foto: IceCube Collaboration/NSF
Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.
(c) Foto: IceCube Collaboration/NSF

Darauf hat die IceCube-Kollaboration seit Jahren hingearbeitet. Nun deutet alles darauf hin, dass den Forschern im antarktischen Eis Neutrinos von außerhalb unseres Sonnensystems ins Netz gegangen sind. Unter den gefundenen Ereignissen befinden sich Neutrinos mit Energien, die tausendmal höher sind, als man sie auf der Erde selbst erzeugen kann. Diese kosmischen Neutrinos können einzigartige Informationen über den Aufbau von Supernovas, Gamma-Ray-Blitze oder Schwarzen Löchern liefern.

Das Neutrino-Teleskop IceCube am Südpol ist weltweit einmalig. In einem Kubikkilometer Eis sind insgesamt 5.160 hochempfindliche Lichtsensoren installiert. Wenn doch mal ein Neutrino im Eis wechselwirkt, entstehen geladene Teilchen die mit nahezu Lichtgeschwindigkeiten weiterfliegen. Diese erzeugen ein schwaches bläuliches Licht, das von den Detektoren aufgefangen wird.

„Wir sehen hochenergetische Neutrinos, von denen wir jetzt mit ziemlicher Sicherheit sagen können, dass sie astrophysikalischen Ursprungs sind“, sagt Prof. Dr. Marek Kowalski vom Physikalischen Institut der Universität Bonn. Neutrinos sind ganz besondere Teilchen: Sie können anders als elektromagnetische Strahlung sämtliche Materie durchdringen. Mit ihrer Hilfe lässt sich wie mit einem Röntgenapparat in die verstecktesten Winkel des Universums blicken. Allerdings wechselwirken diese Teilchen kaum und könnten selbst von einer Bleiabschirmung mit 1000 Kilometer Dicke nicht aufgehalten werden. Ihr Nachweis ist deshalb besonders schwierig. Mit der gigantischen Messeinrichtung „IceCube“ in der Antarktis sind nun dennoch zum ersten Mal Hinweise für hochenergetische Neutrinos aus dem Weltall gefunden worden.

Die meisten Neutrinos auf der Erde entstehen bei niedrigen Energien durch Kernfusion in der Sonne, sie können sich aber auch in der Erdatmosphäre bilden. Die Forscher des IceCube Projektes interessieren sich aber besonders für hochenergetische Neutrinos aus astrophysikalischen Quellen – zum Beispiel von Supernovas, Gamma-Ray-Blitzen oder galaktischen Schwarzen Löchern. Denn Neutrinos sind die einzigen Teilchen, die aus dem Inneren dieser Quellen entkommen können und damit einzigartige Informationen über ihren Aufbau liefern.

Morgendämmerung für ein neues Zeitalter der Astronomie

Gelungen ist der Nachweis der Neutrinos einem internationalen Team von rund 250 Wissenschaftlern und Ingenieuren der IceCube-Kollaboration unter Beteiligung der Astroteilchen-Gruppe von Prof. Kowalski. Mit der gigantischen Versuchsanordnung im antarktischen Eis wurden in den vergangenen zwei Jahren insgesamt 28 Neutrinos mit Energien größer als 30 Tera-Elektronenvolt (TeV), darunter zwei Ereignisse mit über 1000 TeV registriert. Dieser Fund war für die Forscher so bedeutsam, dass die Teilchen sogar eigene Namen bekamen: Ernie & Bert – den beiden beliebten Figuren aus der Fernsehserie „Sesamstraße“.

Mit der verbesserten Analyse der Daten, die nun auch die Richtung der Neutrinos liefert, konnten nicht nur diese beiden, sondern ein Großteil dieser Teilchen als potentielle kosmische Fernreisende identifiziert werden. „Das ist der erste Hinweis auf hochenergetische Neutrinos, die von außerhalb unseres Sonnensystems kommen“, sagt Prof. Dr. Francis Halzen, Projektleiter des IceCube-Experiments von der Universität Wisconsin-Madison (USA). „Dies ist die Morgendämmerung für ein neues Zeitalter der Astronomie.“

Ein Rätsel bleiben jedoch noch die Quellen, aus denen die Neutrinos im Weltraum stammen. Eine Möglichkeit sind Supernovas, bei denen die hochenergetischen Teilchen freigesetzt werden. Das Bild, das sich aus dem IceCube-Experiment abzeichnet, stellt sich für die Wissenschaftler noch verschwommen dar. „Wir können die kosmischen Quellen der Teilchen noch nicht nachweisen, weil wir bislang nicht exakt genug bestimmen konnten, aus welcher Richtung die Neutrinos aus dem Weltall in das Eis eindringen“, erklärt Prof. Kowalski. Die Forscher hoffen darauf, demnächst noch mehr Teilchen nachzuweisen, damit sich die Quellen allmählich schärfer abzeichnen.

Publikation: Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detector, Science, DOI: 10.1126/science.1242856

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Funktioniert unser Langzeitgedächtnis digital?

Der Hippocampus ist eine Struktur im Gehirn, die maßgeblich dafür verantwortlich ist, dass wir uns längerfristig erinnern. Personen, deren Hippocampus zerstört ist, vergessen umgehend Situationen, die sie gerade erlebt haben, oder Mitmenschen, die sie kurz zuvor gesehen haben. „Bisher nahmen wir an, dass die Informationsspeicherung im Hippocampus von der Stärke der dortigen Nervenzellverbindungen, den Synapsen, abhängig ist“, sagt Prof. Dr. Thomas Oertner, Direktor des Instituts für Synaptische Physiologie am ZMNH. Synapsen sind die Strukturen, mit denen eine Nervenzelle in Kontakt zu einer anderen Zelle, etwa einer Sinnes-, Muskel-, Drüsen- oder Nervenzelle steht. Sie dienen der Übertragung von Informationen und spielen eine wichtige Rolle bei deren Speicherung. Für ein funktionierendes Langzeitgedächtnis, so die gängige Lehrmeinung, müssen die Zellverbindungen stark sein und unbegrenzt stabil bleiben. Dieser Prozess wird als „long-term plasticity“ bezeichnet und ist seit mehreren Jahren ein zentrales Thema der neurobiologischen Forschung.

Das Team um Prof. Oertner ist jetzt zu neuen, anderen Ergebnissen gekommen. Mit experimentellen Tricks beeinflussten sie synaptische Verbindungen so, dass diese Informations-Autobahnen quasi in Tempo 30-Zonen umgewandelt wurden. „Wir haben die Stärke der Synapsen drastisch reduziert und die Zellverbindungen dann weiter beobachtet“, erläutert Prof. Oertner. Das Ergebnis nach sieben Tagen war verblüffend. „50 Prozent der manipulierten Synapsen lösten sich auf, die anderen 50 Prozent kehrten in den Ausgangszustand zurück“, sagt Dr. Simon Wiegert aus dem ZMNH, Erstautor der jetzt veröffentlichten Studie. „Eine stabile Langzeitveränderung der Synapsen gibt es offenbar nicht. Demnach muss das Langzeitgedächtnis auch anders als bislang angenommen funktionieren.“

Die Studie legt den Wissenschaftlern zufolge den Schluss nahe, dass das Gehirn ähnliche Strategien wie ein digitaler Computer verwendet, um Informationen über lange Zeiträume zu speichern. Dabei speichert der Hippocampus zunächst Information in „analoger“ Form, indem die Stärke der Synapsen verändert wird. Doch dieser Zustand ist instabil. Nach wenigen Tagen wird diese analoge Speicherung durch eine „digitale“ Form der Speicherung ersetzt – einige Synapsen fallen aus, andere kehren in den Ausgangszustand zurück. „Digitale Speicherung ist wesentlich weniger anfällig für langsamen Zerfall. Das könnte erklären, wieso wir uns an Schlüsselerlebnisse aus Kindheit und Jugend bis ins hohe Altern erinnern“, so Dr. Wiegert.

Für ihre Arbeit nutzen die Grundlagenforscher ein sogenanntes Zwei-Photonen-Mikroskop, um funktionelle Messungen an einzelnen Synapsen in intaktem Gewebe durchzuführen. Diese neue Technik erlaubt es den UKE-Wissenschaftlern erstmals, Nervenzellen im Labor über mehrere Tage hinweg kontinuierlich bei der Arbeit zu beobachten. (Quelle: idw)

Literatur:
J. Simon Wiegert and Thomas G. Oertner: Long-term depression triggers the selective elimination of weakly integrated synapses. PNAS 2013 ; published ahead of print November 4, 2013.

J. Simon Wiegert and Thomas G. Oertner (2011) Dendritische Spines: Dynamische Bausteine des Gedächtnisses. Neuroforum 1/11: 12-20.

Synthetisches Bewusstsein: Wie Bewusstsein funktioniert und Roboter damit ausgestattet werden können

Verrückte Quanten bereiten klassischer Physik Niederlage

Quantenphysikalische Teilchen können an mehreren Orten gleichzeitig sein und hinterlassen dabei sogar Spuren. Das haben Physiker der Goethe-Universität in einem verblüffenden Experiment nachgewiesen, das Albert Einstein vor mehr als 80 Jahren anregte. Damals konnte sein wichtigster Kontrahent, der Physiker Niels Bohr, ihm lediglich Argumente entgegensetzten. Jetzt geben die neuen Experimente dem Dänen Recht.

FRANKFURT. Einstein hat Zeit seines Lebens die quantenphysikalische Aussage bekämpft, dass Teilchen – solange man sie nicht beobachtet – an mehreren Orten gleichzeitig sein können. Sein wichtigstes Gegenargument war: Die geisterhaften Teilchen müssten durch Zusammenstöße mit anderen Teilchen entlang ihrer Bahn eine sichtbare Spur hinterlassen. Eben diese Spur hat Dr. Lothar Schmidt in der Arbeitsgruppe von Prof. Reinhard Dörner am Institut für Kernphysik der Goethe-Universität nun gemessen.

Das klassische Experiment, das auch heutigen Physikstudenten noch Kopfzerbrechen bereitet, ist die Streuung quantenphysikalischer Teilchen am Doppelspalt. Solange es unbeobachtet ist, scheint jedes einzelne Teilchen durch beide Schlitze des Spalts zu gehen. Es bildet – ähnlich wie Wasserwellen – ein Interferenzmuster hinter dem Spalt. Dieses verschwindet aber, sobald man eine Information über den Weg des Teilchens zu gewinnen versucht.

Einstein argumentierte, man müsse gar nicht nachsehen, wo das Teilchen ist, denn es verrate seinen Ort indirekt, indem es beim Passieren des Spalts einen Impuls überträgt: Ginge es durch den linken Schlitz, erfahre das Beugungsgitter einen minimalen Stoß nach links, und entsprechend nach rechts, wenn es durch den rechten Spalt geht. Bohr konterte, auch das Beugungsgitter verhalte sich wie ein quantenmechanisches System, das heißt, es müsse gleichzeitig in beide Richtungen abgelenkt werden.

Dass diese verrückt klingende Vermutung tatsächlich richtig ist, haben Dörner und seine Mitarbeiter jetzt durch die Streuung von Helium-Atomen an einem „Doppelspalt“ nachgewiesen. Mit den Modellen der klassischen Physik lassen sich die gemessenen Ergebnisse nicht beschreiben. „Da wir bei dieser Versuchsanordnung nicht beobachten, durch welches Loch das Teilchen gegangen ist, passiert genau das, was Bohr vorhergesagt hat: Der Doppelspalt rotiert gleichzeitig mit und gegen den Uhrzeigersinn“, erklärt Schmidt. (Quelle: idw).

Buchtipps:

 

Sensationelle Neuentwicklung: MOBILE-Auto mit “Selbstbewusstsein”

Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)
Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)

Optisch erinnert das neue Fahrzeug der Technischen Universität Braunschweig an ein Spielzeugauto in der Größe eines „erwachsenen“ Fahrzeugs. Statt der Karosserie findet sich hier nur ein Gitterrohrrahmen.  Fast 600 PS bringt das zwei Tonnen schwere Gefährt auf die Straße. Es ist eines der leistungsstärksten E-Fahrzeuge der Welt, und beschleunigt in drei bis vier Sekunden von null auf hundert. Entwickelt wurde das MOBILE-Auto von Prof. Markus Maurer und seinem Team am Niedersächsischen Forschungszentrum Fahrzeugtechnik der TU Braunschweig.

Auto mit „Selbst-Bewusstsein“

Bisherige Autos haben eine mechanische oder hydraulische Kopplung von Lenkrad und Bremse mit den Rädern.  Das Lenkrad von Autos der Zukunft bewegt dagegen eine Achse, die im Leeren endet. Ihre Bewegung wird von Sensoren aufgenommen und an die relevanten Komponenten übertragen. Ähnliches gilt auch für Gaspedal und Bremsen. Alle vier Räder sind mit einem jeweils eigenen Antrieb und einer Lenkeinheit versehen, die separat angesteuert werden können. Das Auto kann also jedes Rad unabhängig von den anderen bewegen, wodurch es sich praktisch auf der Stelle drehen und extrem leicht einparken lässt.

Aber ein MOBILE-Wagen muss noch mehr können. Tatsächlich muss es mehr über seine eigenen Fähigkeiten „wissen“ als seine Nutzer. Je nach Fahrsituation müssen die vorhandenen Antriebe zielgerichtet eingesetzt werden. Dabei trifft das Fahrzeug die Entscheidungen und nicht der Fahrer. Etwa dürfen bei schneller Fahrt die Hinterräder nur wenig und anders als bei langsamer Fahrt bewegt werden, da das gesamte Auto sonst ins Schleudern geraten könnte. Die Fahrzeugelektronik muss Position und Geschwindigkeit sowie das entstehende Risiko bei jeder Aktion einschätzen können und entsprechende Entscheidungen treffen.

Eine Revolution der Fahrzeugtechnik

Die „Macher“ von Leonie, des ersten Autos, das seit dem Jahr 2010 fahrerlos durch den Braunschweiger Straßenverkehr kurvt, haben sich mit dem MOBILE-Projekt ein neues Ziel gesteckt. „Leonie war damals aufsehenerregend, aber im Grunde die Weiterentwicklung konventioneller Fahrzeugtechnik – eine Evolution“, sagt Maurer. „MOBILE ist dagegen eine echte Revolution. Sie werden davon weltweit kein Zweites finden“. „Diesmal haben wir alles verworfen, was wir bisher über Autos wussten, und einfach von Anfang an ein ganz neues gebaut“, ergänzt Projektleiter Peter Bergmiller.

Die Frage, warum Ingenieure überhaupt so ein Auto bauen, beantwortet Markus Maurer. Man habe sich von den Forschungspartnern wie Chris Gerdes an der Universität Stanford inspirieren lassen: „Einfach, weil man daraus etwas lernen kann.“ Tatsächlich enthält das Fahrzeugkonzept grundlegende Elemente für die Autos der Zukunft. Kernstück der Forschung ist das vollkommen neue Sicherheitskonzept. Da die Autos immer autonomer fahren und aus immer mehr Elektronik bestehen, wird dies bald existenziell wichtig sein. Die Sicherheitskonzepte der autonomen Autos der Zukunft müssen von selbst funktionieren. Denn es wird keine Menschen geben, die im Zweifelsfall wieder übernehmen. „Wir haben das stärkste mögliche E-Fahrzeug gebaut. Denn wenn wir dies im Griff haben, können wir auch mit schwächeren Fahrzeugen umgehen“, erlärt Maurer.

Konventionelle Lösungen setzen dabei auf klassische Redundanz der Systeme: Für den Fall, dass in einem E-Fahrzeug während der Fahrt ein Lenkmotor ausfällt, gibt es beispielsweise einen zweiten Lenkantrieb, der die Aufgaben übernimmt. Das MOBILE-Projekt dagegen nutzt die Tatsache, dass insgesamt vier Antriebe und Lenkmotoren für die Räder vorhanden sind, und verbindet diese mit einem intelligenten Konzept. Fällt ein Antrieb aus, würde dadurch normalerweise ein Rad an beliebiger Stelle stehen bleiben. Indem die verbleibenden Antriebe sich die Aufgabe teilen, kann das Auto zumindest zur nächsten Werkstatt oder in die heimische Garage gefahren werden.

Während unser Forschungsfahrzeug Leonie Straße und Umgebung, Verkehrsregeln und -signale, sowie Verkehrsteilnehmer berechnen konnte, um autonom im Straßenverkehr zu agieren, zielt das MOBILE-Projekt auf Autonomie nach innen, erläutert Maurer. Es „verstehe“ das Zusammenspiel der elektronischen und mechanischen Komponenten, Kraft und Risiko sowie die im Umgang mit der komplexen Elektronik relativ eingeschränkten Möglichkeiten des Nutzers. (Quelle: idw)

Buchtipp:
Synthetisches Bewusstsein: Wie Bewusstsein funktioniert und Roboter damit ausgestattet werden können

Bakterien produzierten Milliarden Tonnen Eisenerz

Alternierende Schichten von schwarzen und orangefarbenen Eisen- und Silikatmineralen in 2,5 bis 2,6 Milliarden Jahre alten präkambrischen gebänderten Eisenformationen (Gamohaan Hill, in der Nähe von Kuruman, Northern Cape Province, Südafrika).Foto: Andreas Kappler
Wie riesige gebänderte Gesteinsformationen entstanden sind – Veröffentlichung in “Nature”

Vor allem in Südafrika und Australien gibt es mächtige, zwei bis 3,4 Milliarden Jahre alte geologische Formationen aus Eisenoxid und Siliziumdioxid. Manche von diesen sogenannten gebänderten Eisenformationen (englisch: Banded Iron Formations, BIFs) enthalten viele Milliarden Tonnen Eisenoxid und haben eine Ausdehnung von 100.000 Quadratkilometern. Diese Eisenerze decken nicht nur einen Großteil des Weltbedarfs an Eisen, sondern sind auch von besonderem Interesse für die Wissenschaft. Die Wissenschaftler erhoffen sich von der Erforschung dieser Gesteinsformationen Aufschluss über die Entwicklung der Atmosphäre und des Klimas sowie der Evolution von Mikroorganismen in der frühen Erdgeschichte. Wie die Ablagerungen mit den auffälligen Bänderungen entstanden sind, ist bislang unbekannt. Doch die Geomikrobiologen vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen Nicole R. Posth und Florian Hegler unter der Leitung von Prof. Andreas Kappler können jetzt der Entstehungsgeschichte ein wichtiges Puzzleteil hinzufügen. Sie haben erstmals eine plausible Erklärung gefunden, auf welche Weise Mikroorganismen an der Bildung der Eisenerze beteiligt waren und wie sie auch zur Ablagerung der immer im Wechsel mit dem Eisen auftretenden Siliziumdioxid-Schichten beigetragen haben.

Das Eisen im Urozean stammte aus heißen Quellen am Ozeanboden und war als reduziertes, zweiwertiges Eisen im Wasser gelöst. Der Großteil des Eisens in den heutigen BIFs liegt jedoch als oxidiertes, dreiwertiges Eisen vor. Die Forscher wissen deshalb, dass das zweiwertige Eisen zur Ablagerung oxidiert werden musste. Im klassischen Modell zur Entstehung der BIFs wurde angenommen, dass die Oxidation durch Sauerstoff geschah, den frühe einzellige Lebewesen, die Cyanobakterien, durch ihren Stoffwechsel als Abfallprodukt gebildet hatten. Die Forschung der letzten Jahre hat gezeigt, dass zu diesem frühen Zeitpunkt in der Erdgeschichte vermutlich nur sehr wenig oder sogar kein Sauerstoff vorhanden war. Es wurde auch bezweifelt, dass es damals überhaupt schon Cyanobakterien gab. Die Bildung der ältesten BIFs kann also nicht durch Sauerstoff geschehen sein. Denn die ältesten bekannten gebänderten Eisenerze stammen bereits aus dem Präkambrium, sie sind bis zu vier Milliarden Jahre alt – das Alter der Erde wird auf 4,5 bis 4,6 Milliarden Jahre geschätzt.

Andreas Kappler und seine Arbeitsgruppe knüpften bei ihren Forschungen an eine Theorie an, die im Jahre 1969 zum ersten Mal veröffentlicht wurde: Danach sollten die Erze durch eisenoxidierende Bakterien entstanden sein, die zum Leben zwar Licht, aber keinen Sauerstoff benötigten. Allerdings wurden solche anaeroben phototrophen eisenoxidierenden Bakterien erst 1993 in der Natur entdeckt und konnten dann im Labor gezüchtet und untersucht werden. Mit Hilfe von Lichtenergie oxidieren sie zweiwertiges Eisen und setzen es zu dreiwertigem Eisen um – eben zu solchen rostigen Mineralen, wie sie in den BIFs enthalten sind. Die Tübinger Geomikrobiologen entdeckten nun, dass die Ausfällung von Eisen- und Silikatmaterialien in den BIFs natürlichen Temperaturschwankungen unterlag. Die Abhängigkeit von der Temperatur würde auch die bisher unerklärte alternierende Bänderung der Gesteinsformationen erklären: Die Eisenbakterien oxidieren zweiwertiges Eisen nur innerhalb eines bestimmten Temperaturbereiches. Wenn die Temperatur sinkt, werden weniger Eisenoxide gebildet. Im Gegenzug fällt in einer chemischen Reaktion das im Wasser gelöste Siliziumdioxid in Form von festem Silikat aus. Steigt die Temperatur erneut, werden die Eisenbakterien wieder aktiv und lagern die nächste Schicht Eisenminerale ab – und so weiter. Dadurch lässt sich die typische Wechsellagerung von Eisenoxid- und Silikatmineralien erklären.

Durch ihre Arbeiten können die Tübinger Wissenschaftler nicht nur erstmals erklären, wie Mikroorganismen an der Bildung der Bänderung der BIFs beteiligt sind. Die Forschungsergebnisse geben auch weitere Hinweise darauf, dass zu dieser frühen Zeit auf der Erde sauerstoffbildende Bakterien wie die Cyanobakterien nicht die wichtigste Rolle gespielt haben oder vielleicht noch gar nicht vorhanden waren. Damit hätte es auch noch keinen beziehungsweise nur wenig Sauerstoff in der Atmosphäre gegeben. Stattdessen dominierten vor einigen Milliarden Jahren andere Mikroben wie die von den Tübingern untersuchten Eisenbakterien die Ozeane. (Quelle: idw)

Gehirnstimulation: Tablette für doppelten Lernerfolg

Aktives Training: Die Empfindlichkeit der Fingerspitzen wird mit Drahtstiften getestet, danach werden die Hirnströme registriert.

Bei passivem Training und Gabe von Amphetamin (oben,Mitte) ergibt die Hirnstrommessung eine zunehmende Repräsentation des Zeigefingers auf der Hirnoberfläche.

Übung macht den Meister – das gilt auch für Wahrnehmungsleistungen, die sich durch Lernaufgaben kontinuierlich verbessern lassen (perzeptuelles Lernen). Nehmen Testpersonen dazu noch spezielle Medikamente ein, dann verdoppelt sich der Lernerfolg – das zeigen jetzt die beiden Bochumer Forschergruppen von PD Dr. Hubert Dinse (Institut für Neuroinformatik) und Prof. Dr. Martin Tegenthoff (Neurologische Universitätsklinik Bergmannsheil): Die Neurowissenschaftler manipulieren pharmakologisch das perzeptuelle Lernen und zugleich damit verbundene Gehirnveränderungen, die sie durch Hirnstrommessungen erfassen.

Aktives Training: Zwei Drahtstifte – zwei Reize

Perzeptuelles Lernen erfolgt durch stete Wiederholung. So lassen sich Objekte, die in ihrer Oberflächenbeschaffenheit sehr ähnlich sind, mit einiger Übung allein durch Anfassen
voneinander unterscheiden. Diese Fähigkeit zur “taktilen Auflösung” messen die Forscher psychophysisch bei Versuchspersonen, indem diese zwei dünne Drahtstifte tasten müssen, deren Abstand voneinander immer geringer wird. Der kleinste Abstand, bei dem die Versuchsperson noch zwei Drahtstifte wahrnimmt, ist die Zweipunktdiskriminationsfähigkeit. Jeder Mensch hat eine individuelle Zweipunktdiskriminationsschwelle, die sich durch langandauerndes Training herabsetzen lässt.

Lernen durch passives Training

Bereits vor etwa fünfzig Jahren postulierte der kanadische Psychologe Hebb, dass “Gleichzeitigkeit” bzw. “Simultanität” von Ereignissen synaptische Übertragung und damit Lernprozesse verbessert. Diese Erkenntnis setzen die Forscher in ein Stimulationsprotokoll um, dass die natürliche Tastwahrnehmung nachvollzieht: Mit schwachen elektrischen Impulsen reizen sie gleichzeitig und mit einer niedrigen Rate (ein Reiz je Sekunde) kleine Bereiche der Zeigefingerspitzen von Versuchspersonen. Die Reize überträgt eine bewegliche Membran auf dem Zeigefinger der Versuchsperson. Da diese “Coaktivierung” mobil über ein kleines tragbares Kästchen erfolgt, können die Testpersonen dabei “normalen” Tätigkeiten nachgehen. Das Ergebnis: Nach drei Stunden hatte sich die taktile Diskriminationsfähigkeit vorübergehend für einen Zeitraum von 24 Stunden verbessert.

Was beim Lernen im Gehirn passiert

Gleichzeitig erfassen die Forscher mit 32 Elektroden über der gesamten Hirnrinde die beim perzeptuellen Lernen ablaufenden Vorgänge im Gehirn (somatosensorisch evozierte Potenziale). Sie konnten mit der nicht-invasiven Untersuchungstechnik (“neurophysiologisches Mapping”) Lage und Ausdehnung des sensiblen Repräsentationsgebietes der Fingerspitze auf der Hirnoberfläche genau bestimmen: Die Hirnstrommessungen zeigten eine Verschiebung und Vergrößerung der Repräsentation des Zeigefingers auf der Hirnoberfläche, wenn sich die Diskriminationsfähigkeit verbesserte. Das Ausmaß des Lernerfolgs war von Person zu Person unterschiedlich.

Chemie des Lernens

Nur wenige grundlegende chemische Mechanismen kontrollieren die Effizienz von Synapsen, dazu gehört die Gruppe der sog. NMDA-Rezeptoren (N-Methyl-D-Aspartat). Ihre Aktivierung führt über eine Kette komplexer molekularer Vorgänge zu langanhaltenden Veränderungen der Synapseneffizienz, was u. a. als Langzeitpotenzierung (long-term-potentiation LTP) bezeichnet wird. In diesen Vorgängen sehen die Forscher heute die Basis synaptischer Plastizität. Die LTP ist aber auch durch andere Substanzen modulierbar und lässt sich z. B. durch die Neurotransmitter Serotonin und Noradrenalin steigern. Amphetamine, die im Gehirn Substanzen wie Dopamin, Serotonin und Noradrenalin freisetzten, verstärken somit auch die synaptische Plastizität.

Die Tablette für den Lernerfolg

Nun stellte sich die Frage, ob Substanzen, die auf der Ebene der Synapsen das Lernen ermöglichen und verbessern, auch bei Einnahme durch die Versuchspersonen einen solchen positiven Effekt auf das perzeptuelle Lernen haben würden: Mithilfe einer einmaligen Applikation der Substanz Memantine, die den NMDA-Kanal blockiert, eliminierten die Forscher den Lernerfolg zunächst vollständig. Durch Messung der Tastschwellen des linken, nicht-coaktivierten Zeigefingers konnten sie unspezifische Nebenwirkungen des Medikaments ausschließen. Dann erhielten die Testpersonen eine einmalige Gabe Amphetamin (Psychopharmaka), was tatsächlich zu einer Verdoppelung des Lernerfolges führte, ohne Nebenwirkungen auf die Empfindung des nicht-coaktiverten linken Fingers zu verursachen. Die Hirnstrommessungen zeigten entsprechende Veränderungen: Die Blockade des Lernens unter Memantine schränkte die Hirnveränderungen ein, während der doppelte Lernerfolg durch Amphetamin zu einer Ausdehnung der Hirnrepräsentation führte.

Therapieausblick: “Brain-Training”

Die Ergebnisse stehen möglicherweise am Anfang einer neuen Ära, in der sich Gehirnfunktionen und damit das Verhalten durch eine Kombination von Training, Stimulation und medikamentöser Therapie aktiv und gezielt verändern lassen. Das entwickelte Coaktivierungsprotokoll beruht auf einer passiven Stimulation über mehrere Stunden, die zu massiven Änderungen von Gehirnorganisation und Verhalten führte. Dieses passive Training verspricht neue Therapieansätze: Gerade für ältere Menschen oder Patienten mit neurologischen Störungen, z. B. nach einem Schlaganfall oder einer Hirnverletzung. Sie können sich oft nicht ausreichend lange auf die erforderlichen Therapien konzentrieren oder selbst aktiv mitmachen. Der passiv orientierte Therapieansatz spart zudem Kosten – aufgrund seiner geringeren Personalintensität. (Quelle: idw)

Einzigartiger Weg zur Wasserstofferzeugung aus Wasser gefunden

Professor David Milstein Weizmann Institute of Science
Professor David MilsteinWeizmann Institute of Science
(idw). Die Entwicklung eines effizienten künstlichen Katalysators, mit dessen Hilfe durch Sonnenlicht Wasser in Sauerstoff und Wasserstoff aufgespalten werden kann, ist ein Hauptziel in der Erforschung sauberer, erneuerbarer Energiequellen. Wissenschaftler vom Weizmann Institut haben ein neues Verfahren entwickelt, bei dem in mehreren Einzelschritten und ohne Zusatz von schädlichen Chemikalien Wasser durch Sonnenlicht in Sauerstoff und Wasserstoff aufgespalten wird.

Die Entwicklung eines effektiven, mit Sonnenlicht angetriebenen Systems zur Aufspaltung von Wasser in Wasserstoff und Sauerstoff gehört heute zu den wichtigsten Herausforderungen der wissenschaftlichen Forschung, insbesondere mit Hinblick auf das Langzeitpotenzial von Wasserstoff als sauberen, umweltfreundlichen Treibstoff. Die existierenden künstlich entwickelten Systeme sind sehr ineffizient und benötigen zumeist den Einsatz zusätzlicher chemischerWirkstoffe, weshalb die Entwicklung neuer Methoden zur Aufspaltung von Wasser so wichtig ist.

Prof. David Milstein und seine Kollegen vom Fachbereich Organische Chemie am Weizmann Institut haben einen einzigartigen Ansatz entwickelt, der wichtige Stufen zur Bewältigung dieser Herausforderung bietet. Das Forschungsteam konnte eine neue Art der Bindungsentstehung zwischen Sauerstoffatomen nachweisen und sogar ihren Mechanismus bestimmen. Den Flaschenhals beim Aufspaltungsprozess von Wasser stellt eigentlich die Erzeugung von Sauerstoffgas durch die Formation einer Bindung zwischen zwei Sauerstoffatomen aus Wassermolekülen dar. Die Forschungsergebnisse des Teams wurden kürzlich in Science veröffentlicht.

Die Natur hat einen anderen Weg eingeschlagen und dabei ein sehr produktives Verfahren entwickelt: die Photosynthese in den Pflanzen ist die Quelle allen Sauerstoffs auf der Erde. Obwohl es deutliche Fortschritte im Verständnis der Photosynthese gegeben hat, ist noch immer unklar, wie dieses System funktioniert; weltweit bemüht man man sich intensivst – jedoch ohne große Erfolge – um die Entwicklung eines künstlicher photosynthetischer Systeme, welche auf Metallkomplexen basieren, die als Katalysatoren dienen. (Ein Katalysator ist eine Substanz, die eine chemische Reaktion steigern kann, ohne selbst verbraucht zu werden.)

Der neue Ansatz des Weizmann-Teams unterteilt sich in eine Serie von aufeinanderfolgenden thermalen und durch Licht beeinflussten Reaktionen, die zur Freilassung von Wasserstoff und Sauerstoff in Stufen führen. Die Reaktionen werden durch einen einzigartigen Zusatz katalysiert: ein besonderer Metallkomplex, den das Milstein-Team in vorherigen Forschungsstudien entwickelte. Darüber hinaus ist der von ihnen entworfene Metallkomplex, der auf dem Element Ruthenium beruht, ein “schlauer” Komplex, in dem das Metallzentrum und der angeheftete organische Teil bei der Aufspaltung des Wassermoleküls zusammenwirken.

Das Team fand heraus, dass beim Vermischen des Komplexes mit Wasser, die Bindung zwischen einem Wasserstoffatom und dem Sauerstoffatom im Wassermolekül aufbricht, wobei das Wasserstoffatom sich an den organischen Teil anbindet, während das verbliebene Wasserstoff- und Sauerstoffatom (OH-Gruppe) sich an das Metallzentrum des Komplexes binden.

Diese modifizierte Version des Komplexes stellt die Grundlage für den nächsten Abschnitt in dem Verfahren dar: der “Heizabschnitt”. Wenn die Wasserlösung auf 100 Grad Celsius erhitzt wird, wird das Wasserstoffgas aus dem Komplex freigelassen (eine potenzielle Quelle für sauberen Treibstoff ) und eine weitere OH-Gruppe wird dem Metallzentrum hinzugefügt.

“Aber der interessanteste Abschnitt ist der dritte, der “Lichtabschnitt”,” sagt Milstein. “Wenn wir diesen dritten Komplex bei Zimmertemperatur dem Licht aussetzten, wird nicht nur Sauerstoffgas produziert, sondern der Metallkomplex fällt zurück in seinen Ursprungszustand und läßt sich dann für weitere Reaktionen wieder verwenden.”

Diese Ergebnisse sind deshalb so bemerkenswert, weil die Erzeugung einer Bindung zwischen zwei Sauerstoffatomen durch einen künstlich hergestellten Metallkomplex ein sehr seltenes Ereignis ist und bisher unklar war, wie dies überhaupt geschieht. Auch haben Milstein und sein Team es geschafft, einen bisher unbekannten zugrundeliegenden Mechanismus solcher Verfahren zu identifizieren. Weitere Experimente haben gezeigt, dass in diesem dritten Abschnitt Licht die notwendige Energie bietet, um die beiden OH-Gruppen zusammen zu bringen, die dann Wasserstoffperoxid (H2O2) bilden, dass schnell in Sauerstoff und Wasser auseinander bricht. “Weil Wasserstoffperoxid als ein relativ instabiles Molekül bekannt ist, haben Wissenschaftler diesen Abschnitt stets mißachtet und als implausibel erachtet; aber wir haben das Gegenteil bewiesen,” sagt Milstein. Darüber hinaus hat das Forschungsteam gezeigt, dass die Anbindung zwischen den beiden Sauerstoffatomen in einem einzigen Molekül entsteht – und nicht zwischen den Sauerstoffatomen in separaten Molekülen, wie bisher angenommen – und dass sie von einem Metallzentrum ausgeht.

Die Entdeckung eines effizienten künstlichen Katalysators für die von Sonnenlicht angetriebene Aufspaltung von Wasser in Sauerstoff und Wasserstoff ist ein Hauptziel der Erforschung erneuerbarer, sauberer Energie. Bisher hat Milsteins Team einen Mechanismus für die Bildung von Wasserstoff und Sauerstoff aus Wasser vorgeführt, mit Hilfe von Licht und ohne den Einsatz eines chemischen Wirkstoffs. Für ihre nächste Studie planen sie diese Abschnitte miteinander zu verbinden, um ein effektives Katalysatorsystem zu schaffen, das die Erforschung alternativer Energien einen wichtigen Schritt in Richtung ihrer praktischen Anwendung voranbringen soll.

Die Realisierung von Quantencomputern rückt näher


(idw). Die Eigendrehung der Elektronen – der “Spin” – liegt in der heutigen Elektronik noch brach. Könnte man ihn als Informationsträger nutzen, würde sich die Rechenleistung elektronischer Bauteile schlagartig vervielfachen. Bochumer Physikern ist es zusammen mit Kollegen aus Dortmund, St. Petersburg und Washington jetzt gelungen, den Elektronenspin auszurichten, zum kontrollierten “Torkeln” zu bringen und auszulesen. Mittels optischer Impulse konnten sie die Spins der Elektronen auch jederzeit beliebig neu ausrichten.
“Das ist der erste, wichtige Schritt zu einer Adressierung dieser ‘quanten bits’, die in künftigen Datenübertragungssystemen und Rechnern Einzug halten werden”, freut sich Prof. Dr. Andreas Wieck. Die Forscher berichten in NATURE Physics.

Komplexe Rechenoperationen auf kleinstem Raum

Die gesamte heutige Elektronik gründet sich auf elektrische Ladung: Wenn eine Speicherzelle (Bit) elektrische Ladung enthält, entspricht dies logisch “1”, ist keine Ladung enthalten, entspricht dies logisch “0”. Aber Elektronen enthalten nicht nur Ladung – sie drehen sich auch wie ein Kreisel um die eigene Achse und erzeugen so ein Magnetfeld, ähnlich dem der Erde. Durch das Anlegen eines äußeren Magnetfelds kann man dieses Kreiseln beschleunigen oder verlangsamen, den “Kreisel” zum Torkeln bringen und seine Achse in fast beliebige Winkel kippen. Wenn man diese vielfältigen Möglichkeiten als Informationsträger nutzt, kann man mit einem Elektron sehr viel mehr Information als nur “0” und “1” speichern. Darüber hinaus können benachbarte Elektronen, da sie wie zwei Pinwand-Magnete Kräfte aufeinander ausüben, in verschiedene Konfigurationen gebracht werden, was die Datenspeicherung und -verarbeitung noch komplexer gestalten kann. Solche so genannten Quantenbits (“qubits”) können schon in geringer Anzahl von nur einigen zig qubits anstelle einiger Millionen Bits sehr komplexe Rechenvorgänge ausführen.

Spins einsperren in Indium-Arsenid-Inseln

Natürlich ergibt ein einzelnes Elektron nur wenig messbare Wirkung. Dadurch sind Einzel-Elektronenmessungen nur mit höchstempfindlichen Instrumenten unter großen Schwierigkeiten durchführbar. Eine Spezialität des internationalen Forscherteams ist es daher, rund eine Million Elektronen in jeweils fast genau gleiche Indium-Arsenid-Inseln (“Quantendots”) einzusperren und ihre Wirkung zu addieren. Diese “ensemble”-Messungen ergeben um sechs Größenordnungen stärkere Signale, die einfach aufzuzeichnen und sehr robust sind. “Entgegen den Vorurteilen vieler internationaler Konkurrenten verhalten sich dabei alle beteiligten Elektronenspins genau gleich und die mikroskopischen Effekte können daher sehr einfach gemessen werden”, so Wieck.

Quantendots optisch schalten

In der in “NATURE” veröffentlichten Studie ist es nun gelungen, diese Elektronenspins nicht nur auszurichten, sondern auch optisch mit einem Laserpuls zu beliebigen Zeitpunkten in eine gewünschte Richtung zu drehen und diese Richtung mit einem weiteren Laserpuls auszulesen. Dies ist der erste wichtige Schritt, um qubits zu “adressieren” und zu beeinflussen. “Das Interessante ist dabei, dass diese Elektronen in Festkörper eingeschlossen sind, man also nicht wie z.B. bei der Quantenoptik aufwändige Höchstvakuumtechnik und allseitigen Lichteinschluss braucht, um sie dauerhaft in einem Bauelement halten zu können”, unterstreicht Prof. Wieck. Das Höchstvakuum wird nur einmal bei der Herstellung der Quantendots in Bochum benötigt, danach ist das Halbleitersystem gegen Lufteinfluss versiegelt, langlebig und zuverlässig wie alle heute schon verwendeten Transistoren und Speicherzellen.

Die Diagramme zeigen das “Torkeln” der Spins (Amplitude der Schwingung, nach oben aufgetragen) nach einem Ausrichtungs-Laserpuls in Abhängigkeit der Zeit. Eine Schwingungsperiode entspricht einem vollen “Torkel”-Umlauf. Wie zu erwarten, nimmt die Stärke (Amplitude) mit der Zeit bei allen roten Kurven ab. Nach 1,2 Nanosekunden (ns) wird ein Laser-Kontrollpuls eingestrahlt, der die Ausrichtung der Spins schlagartig verändert, was man an der Phase der blauen und schließlich grünen Kurve sehen kann: Sie ist genau in Gegenphase zur schwarzen unteren Kurve, die ohne Kontrollpuls aufgenommen wurde. Zusätzlich schaukelt sich dieses Torkeln in Gegenphase bei 2,4 ns auf, sodass das Signal dann besonders groß wird, was die Auslesung erheblich erleichtert.

Titelaufnahme

A. Greilich, Sophia E. Economou, S. Spatzek, D. R. Yakovlev, D. Reuter, A. D. Wieck, T. L. Reinecke & M. Bayer: Ultrafast optical rotations of electron spins in quantum dots. In: NATURE Physics, 22.3.2009, DOI 10.1038/NPHYS1226