Schlagwort-Archive: Forschung

Biotechnologie: Bakterien sollen Bio-Nylon produzieren

Schätzungen zur Folge sollen die Erdölvorkommen Mitte des Jahrhunderts zur Neige gehen. Für Erdöl, das nicht nur als Ausgangssubstanz für Benzin oder Heizöl dient, sondern etwa auch für Farben, Kosmetik und Kunststoff, müsste spätestens dann eine Alternative her. Weltweit sind Forscher daher bemüht, neue und nachhaltige Wege für die industrielle Produktion zu erschließen. Auch an der Universität des Saarlandes beschäftigen sich Professor Christoph Wittmann und seine Arbeitsgruppe damit, etwa Chemikalien und Wirkstoffe auf Basis nachwachsender Rohstoffe herzustellen.

In einem neuartigen Ansatz arbeiten die Saarbrücker Forscher nun daran, Nylon mittels biotechnologischer Methoden zu produzieren. Nylon ist einer der weltweit wichtigsten Kunststoffe – er kommt nicht nur in Strumpfhosen, sondern auch in vielen Verbundwerkstoffen vor, die zum Beispiel beim Autobau verwendet werden. Bei seinem Verfahren setzt das Team um Wittmann auf die zentrale Vorstufe des Kunststoffs – die Adipinsäure. „Adipinsäure hat in den vergangenen Jahrzehnten vor allem als Baustein für Nylon-Kunststoffe, aber auch für Lebensmittelzusätze, Pharmazeutika, Dünger und Pflanzenschutzmittel einen Weltmarkt von jährlich mehreren Milliarden Euro pro Jahr erreicht“, sagt Professor Christoph Wittmann. Bislang sei die Säure aber nur unter hohem Energieverbrauch aus Erdöl zu gewinnen. Wittmann und sein Team wollen die Substanz künftig aus Abfallstoffen gewinnen. „In der Holz- und Papierindustrie sowie bei der Herstellung von Biotreibstoffen fällt viel Lignin an“, erläutert Wittmann. „Mangels Alternativen wird dies bislang meist nur verbrannt.“

Die Forscher möchten bei ihrem Vorhaben Stoffwechselwege von Bakterien ausnutzen, die verarbeitetes Lignin zu einer Vorstufe der Adipinsäure zusammensetzen können. „In einer chemischen Nachbehandlung, einer sogenannten Hydrierung, wollen wir diese Vorstufe direkt in Adipinsäure umwandeln und daraus dann den hochwertigen Kunststoff zusammenbauen – vollständig biobasiert aus Abfallstoffen“, so Wittmann weiter.

Zudem möchten die Saarbrücker Wissenschaftler ihren innovativen Prozess in den kommenden Jahren derart optimieren, dass die Technologie in der Industrie zum Einsatz kommen kann. „Wir werden daran arbeiten, dass die Bakterien als maßgeschneiderte Zellfabriken den natürlichen Kunststoff mit hoher Ausbeute und Reinheit fertigen“, erläutert der Professor. „Erste Analysen haben bereits gezeigt, dass das Verfahren sowohl sehr umweltschonend als auch wirtschaftlich rentabel sein kann. Es gibt bereits Nachfragen aus der Industrie nach Bio-Nylon.“ Das Bundesministerium für Bildung und Forschung stellt für das Vorhaben in den nächsten drei Jahren insgesamt 1,4 Millionen Euro bereit.

Wie ein expandierendes Universum erzeugt werden kann

Wenn man Raum und Zeit erhitzt, kann ein expandierendes Universum entstehen – ganz ohne Urknall. Diesen Phasenübergang zwischen einem leeren Raum und einem expandierenden Universum, das Masse enthält, konnte ein Forschungsteam nun berechnen. Dahinter liegt ein bemerkenswerter Zusammenhang zwischen Quantenfeldtheorie und Einsteins Relativitätstheorie.

Kochen mit Raum und Zeit

Aus dem Alltag kennen wir Phasenübergänge nur von Stoffen, die zwischen festem, flüssigem und gasförmigem Zustand wechseln. Allerdings können auch Raum und Zeit selbst solche Übergänge durchmachen, wie die Physiker Steven Hawking und Don Page schon 1983 zeigten. Sie berechneten, dass aus leerem Raum bei einer bestimmten Temperatur plötzlich ein Schwarzes Loch werden kann.

Lässt sich bei einem ähnlichen Prozess aber auch ein ganzes Universum erzeugen, das sich kontinuierlich ausdehnt, so wie unseres? Diese Frage stellte sich Daniel Grumiller vom Institut für Theoretische Physik der TU Wien gemeinsam mit Kollegen aus Harvard, dem Massachusetts Institute of Technology (MIT) und der Universität Edinburgh. Das Ergebnis: Tatsächlich scheint es eine kritische Temperatur zu geben, bei der aus einem völlig leeren, flachen Raum ein expandierendes Universum mit Masse wird. „Die leere Raumzeit beginnt gewissermaßen zu kochen, es bilden sich Blasen, eine von ihnen expandiert und nimmt schließlich die gesamte Raumzeit ein“, erklärt Daniel Grumiller.

 Daniel Grumiller erhitzt die Raumzeit - zumindest am Papier. Foto: TU Wien
Daniel Grumiller erhitzt die Raumzeit – zumindest am Papier. Foto: TU Wien

Das Universum muss dabei rotieren – das Kochrezept für ein expandierendes Universum lautet also: Erhitzen und umrühren. Diese Rotation kann allerdings beliebig gering sein. Bei den Berechnungen wurden vorerst nur zwei Raumdimensionen berücksichtigt. „Es gibt aber nichts, was dagegen spricht, dass es in drei Raumdimensionen genauso ist“, meint Grumiller.

Das Phasenübergangs-Modell ist nicht als Konkurrenz zur Urknalltheorie gedacht. „In der Kosmologie weiß man heute sehr viel über das frühe Universum – das zweifeln wir nicht an”, sagt Grumiller. “Aber für uns ist die Frage entscheidend, welche Phasenübergänge in Raum und Zeit möglich sind und wie die mathematische Struktur der Raumzeit beschrieben werden kann“.

Auf der Suche nach der Struktur des Universums

Die Theorie ist die logische Fortsetzung  einer 1997 aufgestellten Vermutung, der sogenannten „AdS-CFT-Korrespondenz“, die seither die Forschung an den fundamentalen Fragen der Physik stark beeinflusst hat: Sie beschreibt einen merkwürdigen Zusammenhang zwischen Gravitationstheorien und Quantenfeldthorien – zwei Bereiche, die auf den ersten Blick gar nichts miteinander zu tun haben. In bestimmten Grenzfällen lassen sich Aussagen der Quantenfeldtheorie in Aussagen von Gravitationstheorien überführen und umgekehrt.  Zwei ganz unterschiedliche physikalische Gebiete werden so in Verbindung gebracht, aber es mangelte bisher an konkreten Modellen, die diesen Zusammenhang belegten.

Letztes Jahr wurde von Daniel Grumiller und Kollegen erstmals so ein Modell aufgestellt (der Einfachheit halber in bloß zwei Raumdimensionen). Das führte schließlich zur aktuellen Fragestellung: Dass es in den Quantenfeldtheorien einen Phasenübergang gibt, wusste man. Doch das bedeutete, dass es aus Konsistenzgründen auch auf der Gravitatations-Seite einen Phasenübergang geben muss.

„Das war zunächst ein Rätsel für uns“, sagt Daniel Grumiller. „Das würde einen Phasenübergang zwischen einer leeren Raumzeit und einem expandierenden Universum bedeuten, und das erschien uns zunächst äußerst unwahrscheinlich.“ Die Rechenergebnisse zeigten dann aber, dass genau diesen Übergang tatsächlich gibt. “Wir beginnen erst, diese Zusammenhänge zu verstehen“, meint Daniel Grumiller. Welche Erkenntnisse über unser eigenes Universum wir dadurch ableiten können, ist heute noch gar nicht absehbar. (Quelle: idw)

Buchtipps:

 

Besondere Fähigkeiten bei Roboter gefunden: Er hat Bewusstsein

Wissenschaftler der Universität Bielefeld haben bei dem von ihnen entwickelten Roboter besondere Fähigkeiten gefunden: Diese deuten darauf hin, dass der Roboter ein Bewusstsein entwickelt hat.

Für Menschen ist es normal: Taucht ein Problem auf, denken sie über unterschiedliche mögliche Handlungsschritte nach, erproben in Gedanken deren Konsequenzen und entscheiden sich dann für eine Vorgehen. Seit Anfang 2011 arbeiten Forscher der Universität Bielefeld daran, dass auch Roboter dieses Probehandeln durchführen können.

Um ihr Ziel – einen Roboter der Probehandeln kann – zu erreichen, haben die Forscher ein reaktives System auf Insektenbasis entwickelt. Der Roboter mit Namen Hector ähnelt einer Stabheuschrecke und reagiert auf Umweltreize, er kann also zum Beispiel über einen Stein klettern, wenn dieser im Weg liegt. Das Neue an Hector: Die Forscher haben sein System um kognitive Komponenten erweitert. Der Heuschrecken-Roboter kann so beispielsweise neue Verhaltensweisen erfinden und das Probehandeln erlernen. Dieses vollzieht der Roboter dann, wenn ein Problem auftritt, das das reaktive System nicht lösen kann – dann schaltet sich Hectors kognitives System dazu, sodass der Roboter unterschiedliche Verhaltensweisen durchspielt und überlegt, welche Handlungsoptionen bestehen. Ganz nach dem Motto: Erst denken, dann handeln.

Prof. Dr. Holk Cruse (Bild), Biologe an der Universität Bielefeld, und sein Forschungspartner Malte Schilling haben entdeckt, dass Roboter ein Bewusstsein entwickeln können. Foto: Universität Bielefeld
Prof. Dr. Holk Cruse (Bild), Biologe an der Universität Bielefeld, und sein Forschungspartner Malte Schilling haben entdeckt, dass Roboter ein Bewusstsein entwickeln können.
Foto: Universität Bielefeld

„Der Bau von Roboter Hector ist noch nicht ganz abgeschlossen, aber die Simulation, das heißt sein virtuelles Gegenstück am Computer, ist zu 90 Prozent fertiggestellt“, sagt Professor Dr. Holk Cruse, einer der beteiligten Forscher. „In der Theorie sind wir uns also schon sehr sicher, dass Hector Probehandeln kann.“ Am Projektende soll auch der reale Roboter – der bislang noch nicht vollständig fertiggestellt ist – zeigen können, dass er das Probehandeln beherrscht. „Nachdem wir unser Basisziel erreicht hatten, haben wir geschaut, was der Roboter noch kann. Dabei ergab sich, dass er gewisse emergente Fähigkeiten entwickelt hat, die auf ein Bewusstsein hindeuten“, so Cruse. „Emergent sind Eigenschaften dann, wenn sie nicht in das System eingebaut wurden, schließlich aber trotzdem vorhanden sind.“

Bislang ist die Annahme verbreitet, dass derartige emergente Eigenschaften, zu denen unter anderem die Kontrolle der Aufmerksamkeit und eben auch das Bewusstsein gehören, nur in komplexen Systemen möglich sind. „Unsere Forschung zeigt, dass auch weniger komplexe Systeme höhere Fähigkeiten entwickeln können“, sagt Malte Schilling, Forschungspartner von Holk Cruse. Zu den Aspekten von Bewusstsein, die der Roboter entwickelt hat, zählen unter anderem Intentionen sowie die sogenannte globale Zugänglichkeit. Intentionen bezeichnen Zustände, bei denen das ganze Verhalten einem Ziel – beispielsweise der Futtersuche – untergeordnet ist. Mit globaler Zugänglichkeit ist gemeint, dass Gedächtniselemente zugänglich sind, auch wenn gerade etwas anderes gemacht wird. Beispielsweise ist jemand der läuft, trotzdem in der Lage nachzudenken und nebenbei noch etwas anderes zu machen. „Diese und weitere Aspekte von Bewusstsein, die wir bei Hector finden konnten, sind sozusagen Abfallprodukte der eigentlichen Forschungsarbeit – allerdings sehr interessante“, sagt Cruse. „Sie zeigen, dass wichtige Eigenschaften des Bewusstseins auch bei sehr kleinen Gehirnen, und eben auch in künstlichen Systemen, vorkommen können“, sagt Cruse. (Quelle: idw)

Buchtipps:

Sensationelle Neuentwicklung: MOBILE-Auto mit “Selbstbewusstsein”

Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)
Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)

Optisch erinnert das neue Fahrzeug der Technischen Universität Braunschweig an ein Spielzeugauto in der Größe eines „erwachsenen“ Fahrzeugs. Statt der Karosserie findet sich hier nur ein Gitterrohrrahmen.  Fast 600 PS bringt das zwei Tonnen schwere Gefährt auf die Straße. Es ist eines der leistungsstärksten E-Fahrzeuge der Welt, und beschleunigt in drei bis vier Sekunden von null auf hundert. Entwickelt wurde das MOBILE-Auto von Prof. Markus Maurer und seinem Team am Niedersächsischen Forschungszentrum Fahrzeugtechnik der TU Braunschweig.

Auto mit „Selbst-Bewusstsein“

Bisherige Autos haben eine mechanische oder hydraulische Kopplung von Lenkrad und Bremse mit den Rädern.  Das Lenkrad von Autos der Zukunft bewegt dagegen eine Achse, die im Leeren endet. Ihre Bewegung wird von Sensoren aufgenommen und an die relevanten Komponenten übertragen. Ähnliches gilt auch für Gaspedal und Bremsen. Alle vier Räder sind mit einem jeweils eigenen Antrieb und einer Lenkeinheit versehen, die separat angesteuert werden können. Das Auto kann also jedes Rad unabhängig von den anderen bewegen, wodurch es sich praktisch auf der Stelle drehen und extrem leicht einparken lässt.

Aber ein MOBILE-Wagen muss noch mehr können. Tatsächlich muss es mehr über seine eigenen Fähigkeiten „wissen“ als seine Nutzer. Je nach Fahrsituation müssen die vorhandenen Antriebe zielgerichtet eingesetzt werden. Dabei trifft das Fahrzeug die Entscheidungen und nicht der Fahrer. Etwa dürfen bei schneller Fahrt die Hinterräder nur wenig und anders als bei langsamer Fahrt bewegt werden, da das gesamte Auto sonst ins Schleudern geraten könnte. Die Fahrzeugelektronik muss Position und Geschwindigkeit sowie das entstehende Risiko bei jeder Aktion einschätzen können und entsprechende Entscheidungen treffen.

Eine Revolution der Fahrzeugtechnik

Die „Macher“ von Leonie, des ersten Autos, das seit dem Jahr 2010 fahrerlos durch den Braunschweiger Straßenverkehr kurvt, haben sich mit dem MOBILE-Projekt ein neues Ziel gesteckt. „Leonie war damals aufsehenerregend, aber im Grunde die Weiterentwicklung konventioneller Fahrzeugtechnik – eine Evolution“, sagt Maurer. „MOBILE ist dagegen eine echte Revolution. Sie werden davon weltweit kein Zweites finden“. „Diesmal haben wir alles verworfen, was wir bisher über Autos wussten, und einfach von Anfang an ein ganz neues gebaut“, ergänzt Projektleiter Peter Bergmiller.

Die Frage, warum Ingenieure überhaupt so ein Auto bauen, beantwortet Markus Maurer. Man habe sich von den Forschungspartnern wie Chris Gerdes an der Universität Stanford inspirieren lassen: „Einfach, weil man daraus etwas lernen kann.“ Tatsächlich enthält das Fahrzeugkonzept grundlegende Elemente für die Autos der Zukunft. Kernstück der Forschung ist das vollkommen neue Sicherheitskonzept. Da die Autos immer autonomer fahren und aus immer mehr Elektronik bestehen, wird dies bald existenziell wichtig sein. Die Sicherheitskonzepte der autonomen Autos der Zukunft müssen von selbst funktionieren. Denn es wird keine Menschen geben, die im Zweifelsfall wieder übernehmen. „Wir haben das stärkste mögliche E-Fahrzeug gebaut. Denn wenn wir dies im Griff haben, können wir auch mit schwächeren Fahrzeugen umgehen“, erlärt Maurer.

Konventionelle Lösungen setzen dabei auf klassische Redundanz der Systeme: Für den Fall, dass in einem E-Fahrzeug während der Fahrt ein Lenkmotor ausfällt, gibt es beispielsweise einen zweiten Lenkantrieb, der die Aufgaben übernimmt. Das MOBILE-Projekt dagegen nutzt die Tatsache, dass insgesamt vier Antriebe und Lenkmotoren für die Räder vorhanden sind, und verbindet diese mit einem intelligenten Konzept. Fällt ein Antrieb aus, würde dadurch normalerweise ein Rad an beliebiger Stelle stehen bleiben. Indem die verbleibenden Antriebe sich die Aufgabe teilen, kann das Auto zumindest zur nächsten Werkstatt oder in die heimische Garage gefahren werden.

Während unser Forschungsfahrzeug Leonie Straße und Umgebung, Verkehrsregeln und -signale, sowie Verkehrsteilnehmer berechnen konnte, um autonom im Straßenverkehr zu agieren, zielt das MOBILE-Projekt auf Autonomie nach innen, erläutert Maurer. Es „verstehe“ das Zusammenspiel der elektronischen und mechanischen Komponenten, Kraft und Risiko sowie die im Umgang mit der komplexen Elektronik relativ eingeschränkten Möglichkeiten des Nutzers. (Quelle: idw)

Buchtipp:
Synthetisches Bewusstsein: Wie Bewusstsein funktioniert und Roboter damit ausgestattet werden können

VW Passat fährt ohne Fahrer im Stadtverkehr von Braunschweig

Im Rahmen des Forschungsprojekts „Stadtpilot“ hat die Technische Universität Braunschweig in ihrem Kompetenzzentrum, dem Niedersächsischen Forschungszentrum Fahrzeugtechnik, ein Forschungsfahrzeug entwickelt, dass automatisch eine vorgegebene Strecke im regulären Verkehr fährt. Bei Geschwindigkeiten bis 60 km/h kann das Forschungsfahrzeug „Leonie“ auf der zweispurigen Fahrbahn des Braunschweiger Stadtrings die Spur halten, Kreuzungen berücksichtigen, Hindernisse beachten sowie Abstände und Geschwindigkeiten dem fließenden Verkehr anpassen.

Die Fahrstrecke führt über einen Teil des Braunschweiger Stadtrings von der Hans-Sommer-Straße bis zur Kreuzung Mühlenpfordtstraße und zurück. Ein Sicherheitsfahrer, der notfalls eingreifen kann, ist dabei vorgeschrieben.

Forschungsprojekt „Stadtpilot“

Das Forschungsprojekt „Stadtpilot“ ist weltweit bisher das einzige Forschungsprojekt, das automatisches Fahren im realen Stadtverkehr umsetzt. Bereits 2007 hatte die TU Braunschweig mit dem VW Passat Variant „Caroline“ erfolgreich an der DARPA Urban Challenge, dem weltweit führenden Wettbewerb autonomer Fahrzeuge, teilgenommen und war einer der elf Finalisten von ursprünglich 89 Bewerbern. Aufbauend auf diesen Erfahrungen entwickelt ein interdisziplinäres Team aus drei verschiedenen Fakultäten nun den Nachfolger „Leonie“.

„Der Sprung von unserem ersten Fahrzeug ‚Caroline‘ zu ‚Leonie‘ ist groß“, erläutert Professor Markus Maurer. „Während ‚Caroline‘ beim Wettbewerb in einem kontrollierten Szenario gefahren ist, gilt es hier, das reale Verkehrsaufkommen zu bewältigen. ‚Leonie‘ hat es mit vielfältigen Verkehrsteilnehmern zu tun, die unterschiedlich und manchmal sogar regelwidrig fahren. Sie muss ihre Geschwindigkeit dem fließenden Verkehr anpassen. Und schließlich ist natürlich ein umfangreiches Sicherheitskonzept notwendig.“

„‚Leonie‘ muss nicht nur die Verkehrsregeln beherrschen, sondern auch all das, was auch ein Mensch zum Autofahren braucht. Sie muss ihre Umwelt ‚sehen‘, sie muss Entscheidungen treffen und alleine Gaspedal, Bremse und Lenkrad bedienen. Die ersten autonomen Fahrten auf dem Braunschweiger Stadtring sind allein schon auf Grund der realen städtischen Umgebung ein Meilenstein und Grundlage für viele weitere Forschungsjahre“, sagt Projektleiter Jörn Marten Wille.

Ziel des Projekts „Stadtpilot“ in den nächsten Jahren ist es, den Braunschweiger Stadtring vollständig autonom umfahren zu können. Die Herausforderungen dieses Projekts liegen in der besonders komplexen Umgebung: der dichte Verkehr auf der teilweise baulich getrennten zweispurigen Straße stellt erhöhte Anforderungen an die Umfeldwahrnehmung, die engen Straßen erfordern eine präzise Spurplanung und die dichte, urbane Bebauung erschwert die exakte Positionsbestimmung.

Forschungsfahrzeug „Leonie“

„Leonie“ ist ein VW Passat Variant, 2.0 TDI. Via Satellitenortung kann der Wagen seine Position im Straßenverkehr berechnen. Verschiedene Laserscanner und Radarsensoren sorgen dafür, dass „Leonie“ ihr Umfeld in jedem Moment wahrnehmen und dann im Rechner weiterverarbeiten kann.
Das Land Niedersachsen hat die Ausnahmegenehmigung für die Fahrten im realen Stadtverkehr (auf dem Braunschweiger Stadtring) erteilt. Sie basiert auf einem Gutachten des TÜV Nord Mobilität. Ein Sicherheitsfahrer ist dabei vorgeschrieben. Ein weiterer Fahrer gibt derzeit noch die Ampelphase ein, die noch nicht von „Leonie“ erkannt werden. (Quelle: idw; Foto: TU Braunschweig, Forschungsfahrzeug „Leonie“ vor dem Altgebäude der TU Braunschweig.)

Kontakt:
Prof. Markus Maurer
Dipl.-Ing. Jörn Marten Wille
TU Braunschweig
Institut für Regelungstechnik
Lehrstuhl für elektronische Fahrzeugsysteme
Hans-Sommer-Str. 66
D-38106 Braunschweig
Tel.: +49-531/391-63060
E-Mail: maurer@ifr.ing.tu-bs.de
wille@ifr.ing.tu-bs.de

Zunahme von Naturkatastrophen durch Klimawandel?

Flut

Bis vor kurzem war es noch gängige Meinung, dass es einen direkten Zusammenhang zwischen globaler Erwärmung und einer Zunahme von Naturkatastrophen gäbe. Dann wurden Mängel im Statusbericht des Weltklimarates (IPPC, 2007) aufgedeckt. Was gilt jetzt?

Sind Stürme, Überschwemmungen, Flutwellen, Unwetter und Dürren womöglich gar nicht auf einen Klimawandel zurückzuführen? Rat und Aufklärung verspricht der „Master of Disaster“ (Meister der Katastrophen), wie Gerhard Berz, der Chef der Georisikoforschung eines großen Rückversicherers von der Zeitschrift Focus genannt wurde. Sein aktuell im Februar 2010 erschienenes Buch mit dem Titel „Wie aus heiterem Himmel?“ behandelt das Thema der Naturkatastrophen unter dem Gesichtspunkt, was uns erwartet und wie wir vorsorgen können.

„Wenn es so weitergeht, geht es bald nicht mehr weiter“, betitelt Berz ein Kapitel in der zweiten Buchhälfte, in der er die Versicherungsstatistik der 60er Jahre über große Naturkatastrophen mit der des Jahrzehnts zwischen 1999 und 2008 vergleicht. Demnach hat sich die jährliche Zahl großer Naturkatastrophen nahezu verdoppelt. Ist diese dramatische Zunahme tatsächlich auf einen menschengemachten Klimawandel zurückzuführen?

Berz ist allerdings zu sehr Kenner der Materie, als dass er die minimalen Klimaschwankungen innerhalb von 50 Jahren als Hauptursache ansehen würde. Er listet vielmehr acht Gründe auf. Der erste Grund ist die Bevölkerungszunahme. Klimawandel als Grund für die Zunahme von Naturkatastrophen erscheint dagegen an letzter Stelle.

Als Leser frage ich mich unwillkürlich: Wie kann die Bevölkerungszunahme seit den 60er Jahren, immerhin auf das Dreifache ihres ursprünglichen Werts, der Grund für Naturkatastrophen sein? Es ist kaum denkbar, dass das Erdbeben von Haiti mit Hunderttausenden Toten oder das kürzliche Beben in Chile mit anschließendem Tsunami von einer wachsenden Erdbevölkerung ausgelöst wurde. Auch der Hurrikan 2005, der New Orleans verwüstete, wird wohl kaum seine Ursache in der Fruchtbarkeit der Bevölkerung haben.

Berz erklärt zunächst systematisch alle vorkommenden Extremereignisse der Natur. Beispielsweise hängen neunzig Prozent aller Erdbeben mit den Bewegungen der Erdkruste zusammen. Die Kontinentalplatten verschieben sich permanent, weil sie auf einem heißen zähflüssigen Erdinneren schwimmen. Wenn zwei Platten aneinander reiben, geht das nicht ohne Beben ab. Für die Natur ist das keine Katastrophe, sondern ein gewöhnlicher Vorgang: „Die Natur kennt keine Katastrophen“ (Max Frisch).

Berz überrascht in einem späteren Kapitel den Leser, wenn auch eher unbeabsichtigt. Die Überraschung hängt mit der Definition des Begriffs „Große Katastrophen“ zusammen. So werden nämlich Ereignisse bezeichnet, welche die Selbsthilfefähigkeit der betroffenen Region deutlich übersteigen. Dazu müssen zwei Dinge zusammenkommen. Erstens müssen Menschen von dem Ereignis betroffen sein und zweitens muss es deren Selbsthilfefähigkeit weit übersteigen. Eine verheerende Überschwemmung in der Sahara, bei der keine Menschen betroffen sind, ist demnach keine große Naturkatastrophe.

Als aufmerksamer Leser wundere ich mich nun, dass sich die Zahl der großen Naturkatastrophen seit den 60er Jahren nur verdoppelt hat, während die Weltbevölkerung bekanntlich auf das Dreifache anstieg. Wegen des Zusammenhangs zwischen der betroffenen Bevölkerungszahl und der Definition großer Katastrophen hätte eigentlich auch die Zahl der Menschen, deren Selbsthilfefähigkeit deutlich übertroffen wird, auf das Dreifache steigen müssen. So macht es fast den Eindruck, als habe die absolute Zahl an Extremereignissen eher abgenommen. Berz löst zwar nicht das Paradoxon, aber mithilfe der gegebenen Information kommt man als Leser selbst auf die Lösung.

Die absolute Schadenszunahme hängt einerseits mit den immer ausgedehnteren und zahlreicheren Großstadtregionen zusammen, die von Extremereignissen betroffen werden. Andererseits müssen aber die Vorsorgemaßnahmen gegen die Naturkatastrophen zugenommen haben und zwar noch mehr als die Zunahme der Schäden.

Das Treffen von Vorsorgemaßnahmen ist ein wichtiges Anliegen von Berz. Zu jeder beschriebenen Katastrophenart schildert er, wie man Katastrophen entweder vermeidet, und wenn das nicht möglich ist, durch vorbeugende Maßnahmen zumindest soweit abmildern kann, sodass selbst bei Eintritt eines Extremereignisses nicht mehr von einer großen Naturkatastrophe die Rede sein kann.

Es sind keineswegs die extrem kostenträchtigen und kaum wirksamen Maßnahmen gegen CO2-Emissionen, welche der Vorsorge gegen große Naturkatastrophen dienen. Es sind einfache und direkt wirksame Maßnahmen, wie die folgenden Beispiele zeigen.

Die Kölner Altstadt wird durch mobile Schutzwände gegen Überschwemmungen des Rheins geschützt. Die Kosten betragen nur einen Bruchteil der sonst möglichen Schäden. Gegen Tsunamis kann man Warn- und Kommunikationssysteme aufbauen: Es braucht keine Hunderttausende Tote zu geben. In Bangladesh dienen Betonschutzbauten auf Stelzen zur Vorsorge gegen Killer-Zyklonen. Die Einhaltung und Kontrolle spezieller Bauvorschriften verhindert ein Erdbebeninferno. Ein gutes Warnsystem kann dafür sorgen, dass wertvolle bewegliche Gegenstände vor einem drohenden Extremereignis in Sicherheit gebracht werden. Mögliche Schäden an unbeweglichen Gütern brauchen deshalb nicht zum völligen Ruin des Geschädigten zu führen.

Die Klimamärchen des Weltklimarats haben uns lange den Blick getrübt für wirklich sinnvolle Vorsorgemaßnahmen gegen große Naturkatastrophen. Berz öffnet uns mit seinem Buch die Augen und zählt auf, wie wir zwar nicht Extremereignisse, aber doch große Naturkatastrophen mit relativ einfachen und wirksamen Mitteln weitgehend verhindern können. – Klaus-Dieter Sedlacek – Bild: Flut cc-by-sa Joy Garnett (archive)(flickr)

Schwarze Löcher im All: Reise mit Wiederkehr?

Video: Schwarze Löcher – Materiefresser im All

Nackt trotz kosmischer Zensur? Wenn ein Schwarzes Loch die Hüllen fallen lässt

Ein Schwarzes Loch – singulärer Endpunkt eines massereichen Sterns – wird nach gängiger Meinung umhüllt vom Ereignishorizont, der die Grenze herkömmlicher Physik markiert. Aber muss das so sein?

Die moderne Naturwissenschaft hat viele höchst ungewohnte Ideen hervorgebracht, aber kaum eine ist so seltsam wie das Schicksal eines großen Sterns. Nachdem er im Lauf von Millionen Jahren seinen Brennstoff verbraucht hat, kann er seiner eigenen Schwere nicht mehr widerstehen und beginnt zu kollabieren. Bei einem genügend massereichen Himmelskörper überwindet seine Gravitation letztlich alle Kräfte, die den Kollaps aufhalten könnten, und ein Millionen Kilometer großes Objekt schrumpft praktisch auf einen Punkt zusammen.

Die meisten Physiker und Astronomen glauben, das Resultat sei ein Schwarzes Loch – ein Körper, dessen ungeheure Schwerkraft alles in seiner unmittelbaren Nachbarschaft verschlingt. Dieses Monstrum besteht aus zwei Teilen. In seinem Zentrum liegt eine Singularität – der unendlich kleine Punkt, in dem sich die gesamte Materie des Sterns zusammenballt. Rundherum liegt ein Gebiet, dessen Rand Ereignishorizont heißt und aus dem es kein Entkommen gibt. Sobald etwas in diese Zone eindringt, verschwindet es auf Nimmerwiedersehen. Falls das hineinstürzende Objekt Licht aussendet, wird auch dies von der Singularität eingefangen; ein äußerer Beobachter sieht es niemals wieder.

Aber ist dieses Bild wirklich wahr? Pankaj S. Joshi, Physikprofessor am Tata Institute of Fundamental Research in Mumbai (Indien) und Spezialist für Gravitation und Kosmologie, hat seine Zweifel, die er in der Dezember-Ausgabe von Spektrum der Wissenschaft begründet. Aus den bekannten physikalischen Gesetzen, so Joshi, geht zwar hervor, dass eine Singularität entsteht, aber über den Ereignishorizont sind die Aussagen verschwommen. Den meisten Physikern kommt der Horizont als wissenschaftliches Feigenblatt sehr gelegen, denn sie müssen erst herausfinden, was bei einer Singularität genau vor sich geht: Materie wird zermalmt, aber was wird dann aus ihr? Indem der Ereignishorizont die Singularität versteckt, kaschiert er diese Wissenslücke durch eine so genannte “kosmische Zensur”: Was auch immer in einem Schwarzen Loch geschehen mag – es bleibt drin.

Doch neue Forschungen ziehen diese Arbeitshypothese zunehmend in Zweifel. In manchen Kollaps-Szenarien bildet sich kein Ereignishorizont, und die Singularität bleibt sichtbar oder, wie Physiker sagen, nackt. Sowohl Materie als auch Strahlung können hineinfallen und wieder herauskommen. Während der Besuch der Singularität in einem Schwarzen Loch eine Reise ohne Wiederkehr wäre, könnte man sich im Prinzip einer nackten Singularität beliebig weit nähern und zurückkehren, um davon zu berichten.

Falls nackte Singularitäten existierten, wären die Folgen enorm; sie würden fast jeden Aspekt der Astro- und Grundlagenphysik berühren. Wenn es keine Horizonte gibt, können mysteriöse Vorgänge in der Nähe der Singularitäten die Außenwelt beeinflussen. Vielleicht erklären nackte Singularitäten gewisse rätselhafte astronomische Phänomene bei hohen Energien, und vielleicht bieten sie die Möglichkeit, das Gewebe der Raumzeit bei kleinsten Größenordnungen zu erforschen. Quelle: Spektrum der Wissenschaft, Dezember 2009

Elektronen auf frischer Tat beim Tunneln ertappt

Was sich wie ein Delikt anhört, nämlich das »Tunneln« ist ein ganz normaler quantenphysikalischer Vorgang. Erstmals ist es nun gelungen Elektronen live zu beobachten, wie sie die Atome verließen, von denen sie gefangen gehalten wurden (Heraustunneln).

Der Tunneleffekt erklärt unter anderem, wie es zur Kernfusion in der Sonne kommt oder auch die Funktionsweise des Raster-Tunnelmikroskops, mit dem man bis zu 100-Millionenfach vergrößern kann. Der Fernsehprofessor der Physik, Harald Lesch, demonstriert in der Bildungssendung Alpha Centauri eindrucksvoll, was es mit diesem Phänomen »Tunneleffekt« auf sich hat. Zu Beginn schwebt er durch die Tafelwand der Fernsehkulisse, so wie ein Geist, den keine Barriere von einem Spuk abhalten kann. Gleich darauf nimmt er wieder eine feste Gestalt an und erklärt, dass der Zuschauer seine Vorführung mit Vorsicht genießen soll. Mit dieser Warnung hat er wohl recht. Denn wenn ein Zuschauer es ihm gleich tun wollte, würde er nur Beulen und blaue Flecke davontragen. Die Wahrscheinlichkeit, dass Menschen durch Wände gehen können, ist verschwindend gering. Nur mikroskopischen Quantenobjekten wie Elektronen oder Protonen gelingt dieses Kunststück mit deutlich höherer Wahrscheinlichkeit.

Man kann den Effekt am Beispiel einer Kugel erklären, die ein Mensch mit Schwung einen Hügel hochrollen lässt. Wenn die Energie, welche der Kugel mitgegeben wird, nicht genügt, rollt die Kugel immer wieder zurück, anstatt die Kuppe zu überwinden und ins nächste Tal zu gelangen. In der Quantenphysik besteht dagegen für Quantenobjekte die Möglichkeit den Potentialwall, wie der Hügel genannt wird, zu durchtunneln. In einem Augenblick befindet sich das Quantenobjekt noch vor dem Potentialwall und im nächsten Augenblick schon dahinter im nächsten Tal. Es ist ein sprunghafter Übergang ohne Zwischenzustände.

Heraustunneln von Elektronen aus Atomen

Noch niemand konnte bisher das Quanten-Tunneln in Echtzeit beobachten. Dieses Kunststück ist nun Physikern des Max-Planck-Instituts für Quantenoptik gelungen. Sie haben das Heraustunneln von Elektronen aus einem Atom erstmals in live verfolgt. Die elektrischen Kräfte innerhalb eines Atoms halten normalerweise jene Elektronen fest, die sich in seinem Inneren aufhalten. Die Kräfte bilden den Potentialwall, den es zu überwinden gilt, wenn sich ein Elektron aus dem Atom herauslösen soll.

Der Trick der Max-Planck-Physiker bestand darin, mit Hilfe von Attosekunden-Laserblitzen die Elektronen näher an den Rand ihres Atomgefängnisses zu bringen. Eine Attosekunde ist milliardster Teil einer milliardstel Sekunde und damit unvorstellbar kurz. Der Laserblitz vergrößert die Wahrscheinlichkeit, dass die Elektronen aus ihrem Atomgefängnis entkommen können. Und tatsächlich, nach einem zweiten Laserblitz, der die Breite des Potentialwalls ein wenig verringerte, nutzen die Elektronen die Gelegenheit, um herauszutunneln.

Atome, denen ein Elektron fehlt, sind positiv geladen. Als die Physiker im Anschluss an das Experiment die positiv geladenen Atome zählten, waren sie nicht schlecht überrascht, dass zahlreiche Elektronen entkommen waren. Noch interessanter ist aber die Feststellung, dass der Zeitbedarf für das Heraustunneln praktisch kaum messbar ist, sodass die Physiker annehmen, der Tunnelprozess benötige überhaupt keine Zeit. Die Erkenntnisse sollen helfen, bessere Röntgenlaser für die medizinische Therapie zu entwickeln.

Tunneleffekt und Hirnforschung

In der Hirnforschung kann das quantenmechanische Tunneln möglicherweise eine Erklärung für die Geschwindigkeit von bewussten Denkprozessen liefern. Die einzelnen Neuronen des Gehirns werden durch Schnittstellen verbunden, die Synapsen heißen. Diese besitzen einen winzigen Spalt, der überwunden werden muss, wenn ein Signal von Neuron zu Neuron übertragen werden soll. Die herkömmliche Theorie besagt nun, dass zur Übertragung von Signalen an den Synapsen, das ursprünglich elektrische Signal in ein chemisches umgewandelt werden muss. Die Theorie kann aber nicht die Geschwindigkeit von bewussten Denkprozessen erklären. Wie jeder weiß, der schon mal einen Akku am Stromnetz geladen hat, benötigt die Umwandlung von elektrischer Energie in chemische erhebliche Zeit. Würde die herkömmliche Theorie stimmen, müsste Denken schneckengleich langsam sein. Weil das der Erfahrung widerspricht, nehmen einige Hirnforscher an, dass der extrem schnelle quantenmechanische Tunneleffekt zur Überwindung des synaptischen Spalts eine Rolle spielt. Sollte man das experimentell bestätigen können, hätte man gleichzeitig eine Verbindung von Bewusstsein zur Welt der Quanten mit all ihren seltsamen Phänomenen gefunden. – Klaus-Dieter Sedlacek

Der Autor ist Verfasser des Buchs mit dem Titel »Unsterbliches Bewusstsein, Raumzeit-Phänomene, Beweise und Visionen« in dem aufgrund quantenphysikalischer Phänomene die Existenz von Bewusstsein auch außerhalb des Gehirns nachgewiesen wird.

Bakterien produzierten Milliarden Tonnen Eisenerz

Alternierende Schichten von schwarzen und orangefarbenen Eisen- und Silikatmineralen in 2,5 bis 2,6 Milliarden Jahre alten präkambrischen gebänderten Eisenformationen (Gamohaan Hill, in der Nähe von Kuruman, Northern Cape Province, Südafrika).Foto: Andreas Kappler
Wie riesige gebänderte Gesteinsformationen entstanden sind – Veröffentlichung in “Nature”

Vor allem in Südafrika und Australien gibt es mächtige, zwei bis 3,4 Milliarden Jahre alte geologische Formationen aus Eisenoxid und Siliziumdioxid. Manche von diesen sogenannten gebänderten Eisenformationen (englisch: Banded Iron Formations, BIFs) enthalten viele Milliarden Tonnen Eisenoxid und haben eine Ausdehnung von 100.000 Quadratkilometern. Diese Eisenerze decken nicht nur einen Großteil des Weltbedarfs an Eisen, sondern sind auch von besonderem Interesse für die Wissenschaft. Die Wissenschaftler erhoffen sich von der Erforschung dieser Gesteinsformationen Aufschluss über die Entwicklung der Atmosphäre und des Klimas sowie der Evolution von Mikroorganismen in der frühen Erdgeschichte. Wie die Ablagerungen mit den auffälligen Bänderungen entstanden sind, ist bislang unbekannt. Doch die Geomikrobiologen vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen Nicole R. Posth und Florian Hegler unter der Leitung von Prof. Andreas Kappler können jetzt der Entstehungsgeschichte ein wichtiges Puzzleteil hinzufügen. Sie haben erstmals eine plausible Erklärung gefunden, auf welche Weise Mikroorganismen an der Bildung der Eisenerze beteiligt waren und wie sie auch zur Ablagerung der immer im Wechsel mit dem Eisen auftretenden Siliziumdioxid-Schichten beigetragen haben.

Das Eisen im Urozean stammte aus heißen Quellen am Ozeanboden und war als reduziertes, zweiwertiges Eisen im Wasser gelöst. Der Großteil des Eisens in den heutigen BIFs liegt jedoch als oxidiertes, dreiwertiges Eisen vor. Die Forscher wissen deshalb, dass das zweiwertige Eisen zur Ablagerung oxidiert werden musste. Im klassischen Modell zur Entstehung der BIFs wurde angenommen, dass die Oxidation durch Sauerstoff geschah, den frühe einzellige Lebewesen, die Cyanobakterien, durch ihren Stoffwechsel als Abfallprodukt gebildet hatten. Die Forschung der letzten Jahre hat gezeigt, dass zu diesem frühen Zeitpunkt in der Erdgeschichte vermutlich nur sehr wenig oder sogar kein Sauerstoff vorhanden war. Es wurde auch bezweifelt, dass es damals überhaupt schon Cyanobakterien gab. Die Bildung der ältesten BIFs kann also nicht durch Sauerstoff geschehen sein. Denn die ältesten bekannten gebänderten Eisenerze stammen bereits aus dem Präkambrium, sie sind bis zu vier Milliarden Jahre alt – das Alter der Erde wird auf 4,5 bis 4,6 Milliarden Jahre geschätzt.

Andreas Kappler und seine Arbeitsgruppe knüpften bei ihren Forschungen an eine Theorie an, die im Jahre 1969 zum ersten Mal veröffentlicht wurde: Danach sollten die Erze durch eisenoxidierende Bakterien entstanden sein, die zum Leben zwar Licht, aber keinen Sauerstoff benötigten. Allerdings wurden solche anaeroben phototrophen eisenoxidierenden Bakterien erst 1993 in der Natur entdeckt und konnten dann im Labor gezüchtet und untersucht werden. Mit Hilfe von Lichtenergie oxidieren sie zweiwertiges Eisen und setzen es zu dreiwertigem Eisen um – eben zu solchen rostigen Mineralen, wie sie in den BIFs enthalten sind. Die Tübinger Geomikrobiologen entdeckten nun, dass die Ausfällung von Eisen- und Silikatmaterialien in den BIFs natürlichen Temperaturschwankungen unterlag. Die Abhängigkeit von der Temperatur würde auch die bisher unerklärte alternierende Bänderung der Gesteinsformationen erklären: Die Eisenbakterien oxidieren zweiwertiges Eisen nur innerhalb eines bestimmten Temperaturbereiches. Wenn die Temperatur sinkt, werden weniger Eisenoxide gebildet. Im Gegenzug fällt in einer chemischen Reaktion das im Wasser gelöste Siliziumdioxid in Form von festem Silikat aus. Steigt die Temperatur erneut, werden die Eisenbakterien wieder aktiv und lagern die nächste Schicht Eisenminerale ab – und so weiter. Dadurch lässt sich die typische Wechsellagerung von Eisenoxid- und Silikatmineralien erklären.

Durch ihre Arbeiten können die Tübinger Wissenschaftler nicht nur erstmals erklären, wie Mikroorganismen an der Bildung der Bänderung der BIFs beteiligt sind. Die Forschungsergebnisse geben auch weitere Hinweise darauf, dass zu dieser frühen Zeit auf der Erde sauerstoffbildende Bakterien wie die Cyanobakterien nicht die wichtigste Rolle gespielt haben oder vielleicht noch gar nicht vorhanden waren. Damit hätte es auch noch keinen beziehungsweise nur wenig Sauerstoff in der Atmosphäre gegeben. Stattdessen dominierten vor einigen Milliarden Jahren andere Mikroben wie die von den Tübingern untersuchten Eisenbakterien die Ozeane. (Quelle: idw)

Einzigartiger Weg zur Wasserstofferzeugung aus Wasser gefunden

Professor David Milstein Weizmann Institute of Science
Professor David MilsteinWeizmann Institute of Science
(idw). Die Entwicklung eines effizienten künstlichen Katalysators, mit dessen Hilfe durch Sonnenlicht Wasser in Sauerstoff und Wasserstoff aufgespalten werden kann, ist ein Hauptziel in der Erforschung sauberer, erneuerbarer Energiequellen. Wissenschaftler vom Weizmann Institut haben ein neues Verfahren entwickelt, bei dem in mehreren Einzelschritten und ohne Zusatz von schädlichen Chemikalien Wasser durch Sonnenlicht in Sauerstoff und Wasserstoff aufgespalten wird.

Die Entwicklung eines effektiven, mit Sonnenlicht angetriebenen Systems zur Aufspaltung von Wasser in Wasserstoff und Sauerstoff gehört heute zu den wichtigsten Herausforderungen der wissenschaftlichen Forschung, insbesondere mit Hinblick auf das Langzeitpotenzial von Wasserstoff als sauberen, umweltfreundlichen Treibstoff. Die existierenden künstlich entwickelten Systeme sind sehr ineffizient und benötigen zumeist den Einsatz zusätzlicher chemischerWirkstoffe, weshalb die Entwicklung neuer Methoden zur Aufspaltung von Wasser so wichtig ist.

Prof. David Milstein und seine Kollegen vom Fachbereich Organische Chemie am Weizmann Institut haben einen einzigartigen Ansatz entwickelt, der wichtige Stufen zur Bewältigung dieser Herausforderung bietet. Das Forschungsteam konnte eine neue Art der Bindungsentstehung zwischen Sauerstoffatomen nachweisen und sogar ihren Mechanismus bestimmen. Den Flaschenhals beim Aufspaltungsprozess von Wasser stellt eigentlich die Erzeugung von Sauerstoffgas durch die Formation einer Bindung zwischen zwei Sauerstoffatomen aus Wassermolekülen dar. Die Forschungsergebnisse des Teams wurden kürzlich in Science veröffentlicht.

Die Natur hat einen anderen Weg eingeschlagen und dabei ein sehr produktives Verfahren entwickelt: die Photosynthese in den Pflanzen ist die Quelle allen Sauerstoffs auf der Erde. Obwohl es deutliche Fortschritte im Verständnis der Photosynthese gegeben hat, ist noch immer unklar, wie dieses System funktioniert; weltweit bemüht man man sich intensivst – jedoch ohne große Erfolge – um die Entwicklung eines künstlicher photosynthetischer Systeme, welche auf Metallkomplexen basieren, die als Katalysatoren dienen. (Ein Katalysator ist eine Substanz, die eine chemische Reaktion steigern kann, ohne selbst verbraucht zu werden.)

Der neue Ansatz des Weizmann-Teams unterteilt sich in eine Serie von aufeinanderfolgenden thermalen und durch Licht beeinflussten Reaktionen, die zur Freilassung von Wasserstoff und Sauerstoff in Stufen führen. Die Reaktionen werden durch einen einzigartigen Zusatz katalysiert: ein besonderer Metallkomplex, den das Milstein-Team in vorherigen Forschungsstudien entwickelte. Darüber hinaus ist der von ihnen entworfene Metallkomplex, der auf dem Element Ruthenium beruht, ein “schlauer” Komplex, in dem das Metallzentrum und der angeheftete organische Teil bei der Aufspaltung des Wassermoleküls zusammenwirken.

Das Team fand heraus, dass beim Vermischen des Komplexes mit Wasser, die Bindung zwischen einem Wasserstoffatom und dem Sauerstoffatom im Wassermolekül aufbricht, wobei das Wasserstoffatom sich an den organischen Teil anbindet, während das verbliebene Wasserstoff- und Sauerstoffatom (OH-Gruppe) sich an das Metallzentrum des Komplexes binden.

Diese modifizierte Version des Komplexes stellt die Grundlage für den nächsten Abschnitt in dem Verfahren dar: der “Heizabschnitt”. Wenn die Wasserlösung auf 100 Grad Celsius erhitzt wird, wird das Wasserstoffgas aus dem Komplex freigelassen (eine potenzielle Quelle für sauberen Treibstoff ) und eine weitere OH-Gruppe wird dem Metallzentrum hinzugefügt.

“Aber der interessanteste Abschnitt ist der dritte, der “Lichtabschnitt”,” sagt Milstein. “Wenn wir diesen dritten Komplex bei Zimmertemperatur dem Licht aussetzten, wird nicht nur Sauerstoffgas produziert, sondern der Metallkomplex fällt zurück in seinen Ursprungszustand und läßt sich dann für weitere Reaktionen wieder verwenden.”

Diese Ergebnisse sind deshalb so bemerkenswert, weil die Erzeugung einer Bindung zwischen zwei Sauerstoffatomen durch einen künstlich hergestellten Metallkomplex ein sehr seltenes Ereignis ist und bisher unklar war, wie dies überhaupt geschieht. Auch haben Milstein und sein Team es geschafft, einen bisher unbekannten zugrundeliegenden Mechanismus solcher Verfahren zu identifizieren. Weitere Experimente haben gezeigt, dass in diesem dritten Abschnitt Licht die notwendige Energie bietet, um die beiden OH-Gruppen zusammen zu bringen, die dann Wasserstoffperoxid (H2O2) bilden, dass schnell in Sauerstoff und Wasser auseinander bricht. “Weil Wasserstoffperoxid als ein relativ instabiles Molekül bekannt ist, haben Wissenschaftler diesen Abschnitt stets mißachtet und als implausibel erachtet; aber wir haben das Gegenteil bewiesen,” sagt Milstein. Darüber hinaus hat das Forschungsteam gezeigt, dass die Anbindung zwischen den beiden Sauerstoffatomen in einem einzigen Molekül entsteht – und nicht zwischen den Sauerstoffatomen in separaten Molekülen, wie bisher angenommen – und dass sie von einem Metallzentrum ausgeht.

Die Entdeckung eines effizienten künstlichen Katalysators für die von Sonnenlicht angetriebene Aufspaltung von Wasser in Sauerstoff und Wasserstoff ist ein Hauptziel der Erforschung erneuerbarer, sauberer Energie. Bisher hat Milsteins Team einen Mechanismus für die Bildung von Wasserstoff und Sauerstoff aus Wasser vorgeführt, mit Hilfe von Licht und ohne den Einsatz eines chemischen Wirkstoffs. Für ihre nächste Studie planen sie diese Abschnitte miteinander zu verbinden, um ein effektives Katalysatorsystem zu schaffen, das die Erforschung alternativer Energien einen wichtigen Schritt in Richtung ihrer praktischen Anwendung voranbringen soll.