Schlagwort-Archive: Energie

Was ist eigentlich Entropie?

Entropie

Die Entropie wird oft missverständlich als eine Art „Unordnung“ bezeichnet. Doch das greift viel zu kurz. Einst eingeführt, um den begrenzten Wirkungsgrad von Dampfmaschinen zu erklären, wird der Begriff heute auch in vielen anderen Disziplinen genutzt.

Kaum ein Begriff der Physik wird so gerne außerhalb der Physik benutzt – und so oft abweichend von seiner eigentlichen Bedeutung – wie der der Entropie. Dabei hat der Begriff durchaus eine eng umrissene Bedeutung. Eine konkrete Definition dieser physikalischen Größe stellte der österreichische Physiker Ludwig Boltzmann in der zweiten Hälfte des 19. Jahrhunderts auf. Er konzentrierte sich auf das mikroskopische Verhalten eines Fluids, also eines Gases oder einer Flüssigkeit. Die ungeordnete Bewegung von Atomen oder Molekülen darin verstand er dabei als Wärme, was für seine Definition entscheidend war.

Entropie in der Badewanne

In einem abgeschlossenen System mit festem Volumen und fixer Teilchenzahl, so legte Boltzmann fest, ist die Entropie proportional zum Logarithmus der Anzahl von Mikrozuständen in dem System. Unter Mikrozuständen verstand er alle Möglichkeiten, wie sich die Moleküle oder Atome des eingesperrten Fluids anordnen können. Seine Formel definiert die Entropie somit als ein Maß für die „Anordnungsfreiheit“ der Moleküle und Atome: Steigt die Zahl der einnehmbaren Mikrozustände, dann wächst die Entropie. Gibt es weniger Möglichkeiten, wie sich die Teilchen des Fluids anordnen können, ist die Entropie kleiner.

Boltzmanns Formel wird oft so interpretiert, als sei die Entropie gleichbedeutend mit „Unordnung“. Dieses vereinfachte Bild führt allerdings leicht in die Irre. Ein Beispiel dafür ist der Schaum in einer Badewanne: Wenn die Bläschen zerplatzen und die Wasseroberfläche glatt wird, hat es den Anschein, als nehme die Unordnung ab. Die Entropie tut das aber nicht! Tatsächlich nimmt sie sogar zu, denn nach dem Zerplatzen des Schaums ist der mögliche Aufenthaltsraum für die Moleküle der Flüssigkeit nicht mehr auf die Außenhäute der Bläschen beschränkt – die Zahl der einnehmbaren Mikrozustände hat sich also vergrößert. Die Entropie ist gewachsen.

Mithilfe der Boltzmannschen Definition lässt sich eine Seite des Begriffs verstehen – doch die Entropie hat auch eine andere, makroskopische Seite, die der deutsche Physiker Rudolf Clausius bereits einige Jahre zuvor aufgedeckt hatte. Zu Beginn des 18. Jahrhunderts wurde die Dampfmaschine erfunden, eine klassische Wärmekraftmaschine. Wärmekraftmaschinen wandeln einen Temperaturunterschied in mechanische Arbeit um. Physiker versuchten damals zu begreifen, welchen Prinzipien diese Maschinen gehorchen. Die Forscher stellten nämlich irritiert fest, dass sich nur ein paar Prozent der thermischen Energie in mechanische Energie umwandeln ließen. Der Rest ging irgendwie verloren – ohne dass sie den Grund verstanden.

Wertigkeit der Energie

Der Theorie der Thermodynamik schien ein physikalisches Konzept zu fehlen, das die unterschiedliche Wertigkeit der Energie berücksichtigt und die Fähigkeit begrenzt, thermische Energie in mechanische Energie umzuwandeln. In Gestalt der Entropie kam die Lösung. Mitte des 19. Jahrhunderts führte Clausius den Begriff als thermodynamische Größe ein und definierte ihn als makroskopisches Maß für eine Eigenschaft, die die Nutzbarkeit von Energie begrenzt.

Clausius zufolge hängt die Entropieänderung eines Systems von der zugeführten Wärme und der dabei herrschenden Temperatur ab. Zusammen mit Wärme wird immer Entropie übertragen, so sein Fazit. Darüber hinaus stellte Clausius fest, dass die Entropie in geschlossenen Systemen, anders als die Energie, keine Erhaltungsgröße ist. Diese Erkenntnis ging als der zweite Hauptsatz der Thermodynamik in die Physik ein:

„In einem geschlossenen System nimmt die Entropie niemals ab.“

Die Entropie nimmt demnach immer zu oder bleibt konstant. Damit wird in die Physik geschlossener Systeme ein Zeitpfeil eingeführt, denn bei wachsender Entropie sind thermodynamische Prozesse in geschlossenen Systemen unumkehrbar (oder irreversibel).

Reversibel (umkehrbar) wäre ein Prozess nur dann, wenn die Entropie konstant bliebe. Das ist aber bloß theoretisch möglich. Alle realen Prozesse sind irreversibel. Frei nach Boltzmann kann man auch sagen: Die Zahl der möglichen Mikrozustände nimmt jederzeit zu. Diese mikroskopische Interpretation erweitert die thermodynamisch-makroskopische Interpretation durch Clausius. Durch die Entropie ließ sich das Rätsel um die verschwundene Energie in Wärmekraftmaschinen endlich auflösen (siehe Kasten). Ständig entzieht sich ein Teil der Wärmeenergie der mechanischen Nutzbarkeit und wird wieder abgegeben, weil die Entropie in geschlossenen Systemen nicht abnehmen darf.

Vielseitiger Einsatz

Seit den Erkenntnissen von Clausius und Boltzmann ist die Entropie auch in andere Bereiche der Physik eingezogen. Sogar außerhalb der Physik griff man sie auf, jedenfalls als mathematisches Konzept. Beispielsweise führte der US-amerikanische Mathematiker und Elektrotechniker Claude Shannon im Jahr 1948 die sogenannte Informationsentropie ein. Mit dieser Größe charakterisierte er den Informationsverlust in Übertragungen per Telefonleitung.

Auch in der Chemie und Biologie spielt die Entropie eine Rolle: In bestimmten offenen Systemen können sich neue Strukturen bilden, sofern Entropie nach außen abgegeben wird. Es muss sich dabei um sogenannte dissipative Systeme handeln, bei denen also Energie in thermische Energie umgewandelt wird. Diese Theorie der Strukturbildung stammt vom belgischen Physikochemiker Ilya Prigogine. Bis heute werden Arbeiten veröffentlicht, in denen der physikalischen Tragweite des Konzepts neue Aspekte hinzugefügt werden.

Wirkungsgrad und Entropie

Warum ist der Wirkungsgrad von Wärmekraftmaschinen begrenzt? Rudolf Clausius löste dieses Rätsel, indem er den Begriff der Entropie einführte. Der Physiker betrachtete den Kreisprozess einer idealisierten Wärmekraftmaschine, bei dem sich Expansion und Kompression unter isothermen (konstante Temperatur) und isentropen (konstante Entropie) Bedingungen abwechseln. Durch Verknüpfung der Energieerhaltung mit dem zweiten Hauptsatz der Thermodynamik ergibt sich in diesem sogenannten Carnotprozess die folgende Ungleichung für den Wirkungsgrad:

η≤(T1T2)/T1

T1 und T2 sind die beiden Temperaturen, zwischen denen der Kreisprozess betrieben wird. Der maximal erreichbare Wirkungsgrad einer Wärmekraftmaschine ist also durch thermodynamische Gesetzmäßigkeiten begrenzt. Ein Beispiel: Wird die Maschine zwischen 100 und 200 Grad Celsius betrieben, dann liegt der maximal erreichbare Wirkungsgrad bei rund 27 Prozent (die Temperaturwerte müssen in der Einheit Kelvin in die Formel eingesetzt werden).

Aus der Energieerhaltung und dem zweiten Hauptsatz der Thermodynamik lassen sich auf mathematischem Weg auch noch zwei weitere nützliche Erkenntnisse ableiten: Wärme kann nur dann von einem kalten auf einen warmen Körper übergehen, wenn Arbeit aufgewendet wird – Kühlschränke und Wärmepumpen benötigen eine Energiezufuhr. Zweitens lässt sich mit einem Wärmereservoir konstanter Temperatur keine Arbeit verrichten. Dazu ist immer der Fluss von Wärme zwischen Reservoirs unterschiedlicher Temperatur notwendig.

Entropie in Formeln

Der Begriff Entropie ist eine Neubildung durch Rudolf Clausius aus griechischen Wörtern und bedeutet übersetzt ungefähr „Wandlungsgehalt“. Laut dem Physiker hängt die Entropieänderung ΔS eines Systems folgendermaßen mit der zugeführten Wärme und der Temperatur zusammen:

ΔS=ΔQ/T

Dabei bezeichnet ΔQ eine kleine, dem System reversibel zugeführte Wärmemenge und T die Temperatur, die bei dieser Übertragung herrscht. Die Formel besagt, dass zusammen mit Wärme immer Entropie übertragen wird. Boltzmanns Definition der Entropie beruht auf dem Verständnis der Wärme als ungeordnete Bewegung von Atomen oder Molekülen. Ihm zufolge ist die Entropie S durch folgende Formel gegeben:

S=k lnW

Die Entropie ist also proportional zum Logarithmus der Zahl W der „Mikrozustände“ eines Systems, wobei alle anderen Parameter – wie Volumen und Teilchenzahl – konstant sind. Mit den Mikrozuständen sind die Möglichkeiten gemeint, wie die Moleküle oder Atome eines eingesperrten Fluids angeordnet sein können. Die Konstante k ist die Boltzmann-Konstante.

Autor: Sven Titz; Quelle: Welt der Physik; Lizenz: CC by-nc-nd

Merken

Merken

Physik sorgt für Entwicklungsschub in der Biologie

Geschichte der Biophysik

Physik und Biologie haben gemeinsame Wurzeln und haben sich oft gegenseitig inspiriert. Neue physikalische Messmethoden führten zu einem Entwicklungsschub in der Biologie und Beobachtungen der Biologen dienten als Denkanstöße in der Physik.

Kann die Physik auch prinzipielle Fragen der Biologie klären? Einige Experten hegten einst starke Zweifel. So erklärte der französische Genetiker und Medizin-Nobelpreisträger von 1965, Jacques Monod, lange Zeit, dass Leben zwar mit den Gesetzen der Physik kompatibel sei, aber nicht durch physikalische Gesetze kontrolliert werde. Ernst Walter Mayr, der große Entwicklungsbiologe, behauptete, Physik spiele in der Biologie überhaupt keine Rolle und habe praktisch nichts zur Deutung lebender Materie beigetragen. Die historischen Beispiele zeigen jedoch das Gegenteil.

Mit Physik die Zelle entdecken

Ein erster Begründer der modernen Biologie war der Delfter Kaufmann und Hobbyforscher Antoni van Leeuwenhoek, der um 1670 einfache Mikroskope baute, mit denen er eine bis zu 200-fache Vergrößerung erreichte. Die Mikroskope bestanden aus einer auf einem Kupferring ruhenden Glaskugel, als Beleuchtung diente eine Kerze. Leeuwenhoek beobachtete damit erstmals lebende Zellen – wahrscheinlich sogar große Bakterien.

Historische Skizze des Mikroskops von Robert Hooke.
Mikroskop nach Hooke

Als zweiter Entdecker der Zelle kann der englische Physiker Robert Hooke angesehen werden. Der Experimentator, dessen Name vor allem durch sein Gesetz der Elastizität bekannt ist, beobachttee im 17. Jahrhundert die Struktur von Kork und prägte den Begriff der Zelle. Seine und Leeuwenhoeks Beobachtungen über die Existenz und Bewegung von Zellen wurden von den Biologen lange als Spielerei abgetan und so dauerte es noch gut 200 Jahre, bis die Idee der Zelle vollständig akzeptiert wurde.

Physikalische Prinzipien in der Biologie

Weitere Pioniere der Biophysik waren Thomas Young und Hermann von Helmholtz, die beide über die Medizin zur Physik kamen. Der Augenarzt Thomas Young lieferte Anfang des 19. Jahrhundert mit seinem Beugungsversuch am Doppelspalt den ersten experimentellen Beweis für die Wellennatur des Lichts – gegen den Widerstand des wissenschaftlichen Establishments. In Selbstversuchen lieferte er außerdem den Beweis, dass die Adaption des Auges auf der Verformung der Augenlinse beruht und belegte die Ursache des Astigmatismus, eines optischen Abbildungsfehlers, der sich im Auge als Hornhautverkrümmung äußert. Er stellte auch die Dreifarben-Hypothese des Farbsehens auf, ausgebaut von Helmholtz und heute voll bestätigt. Ebenso wichtig für die Biologie ist Youngs Entdeckung des nach ihm benannten Gesetzes der Kapillarität.

Dargestellt ist die von Helmholtz und Young vermutete Empfindlichkeit des Auges für die drei Farbtöne rot, grün und blau/violett.
Dreifarben-Hypothese

Der Physiologe Helmholtz maß als erster die Transportgeschwindigkeit von Nervensignalen. Seine Formulierung des Energieerhaltungssatzes der Physik und die Entdeckung der zentralen Bedeutung der Zirkulationsströmung für das Fliegen wurden durch die Biologie inspiriert. Dabei ist seine Entwicklung vom Mediziner zum theoretischen Physiker außergewöhnlich: Als Mediziner begründete er die moderne Physiologie und als Physiker legte er den Grundstein für die zum Ende des 19. Jahrhunderts einsetzende enorme Entwicklung der Physik in Deutschland.

Energie und Bewegung

Die prominentesten Beispiele für die Auswirkungen der Biologie auf die Physik sind die Entdeckung des allgemeinen Energieerhaltungsssatzes durch den deutschen Arzt und Physiker Julius von Mayer und den Physiologen Hermann von Helmholtz sowie die Theorie der Brownschen Bewegung durch Albert Einstein. Mayer beobachtete als Schiffsarzt auf Java, dass das in den Venen zum Herzen zurückfließende Blut der Hafenarbeiter in den Tropen heller ist als in gemäßigten Zonen. Er wusste bereits, dass Blut umso heller ist, je mehr Sauerstoff es enthält. Daraus schloss er, dass die Arbeiter in den Tropen bei gleicher Arbeitsleistung weniger Sauerstoff – und damit Energie – verbrauchten als in gemäßigten Zonen, da weniger Wärme an die Umgebung abgegeben wird. Dies brachte ihn auf die Idee, dass Wärme und mechanische Arbeit äquivalente Energieformen sind und er bestimmte aus physiologischen Messungen sogar das mechanische Wärmeäquivalent.

Die Grafik ist zweigeteilt und zeigt statistische Bewegungen von Teilchen, die sich bei höherer Temperatur schneller bewegen.
Brownsche Bewegung

Seine Intuition allein reichte jedoch nicht aus, um der Idee in der Physik zum Durchbruch zu verhelfen. Erst dem Theoretiker Helmholtz gelang 1847 die allgemeine Formulierung des Energieerhaltungssatzes. Seine im Alter von 26 Jahren verfasste Arbeit wurde allerdings nicht zur Publikation in den Annalen für Physik und Chemie angenommen, und so setzte sich der Energieerhaltungssatz eher zögernd durch. Einsteins Deutung der Beobachtung des britischen Botanikers Robert Brown, dass Bärlappsamen in Wasser wirre Bewegungen ausführen, beeinflusste die Physik zu Beginn des Jahrhunderts fast ähnlich stark wie die Plancksche Strahlungsformel. Nach dem experimentellen Beweis der Theorie der Brownschen Bewegung durch den französischen Physiker Jean-Baptiste Perrin, der 1926 den Physik-Nobelpreis erhielt, akzeptierten auch skeptische Physiker das Konzept der atomistischen Struktur der Materie. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Biotechnologie: Bakterien sollen Bio-Nylon produzieren

Schätzungen zur Folge sollen die Erdölvorkommen Mitte des Jahrhunderts zur Neige gehen. Für Erdöl, das nicht nur als Ausgangssubstanz für Benzin oder Heizöl dient, sondern etwa auch für Farben, Kosmetik und Kunststoff, müsste spätestens dann eine Alternative her. Weltweit sind Forscher daher bemüht, neue und nachhaltige Wege für die industrielle Produktion zu erschließen. Auch an der Universität des Saarlandes beschäftigen sich Professor Christoph Wittmann und seine Arbeitsgruppe damit, etwa Chemikalien und Wirkstoffe auf Basis nachwachsender Rohstoffe herzustellen.

In einem neuartigen Ansatz arbeiten die Saarbrücker Forscher nun daran, Nylon mittels biotechnologischer Methoden zu produzieren. Nylon ist einer der weltweit wichtigsten Kunststoffe – er kommt nicht nur in Strumpfhosen, sondern auch in vielen Verbundwerkstoffen vor, die zum Beispiel beim Autobau verwendet werden. Bei seinem Verfahren setzt das Team um Wittmann auf die zentrale Vorstufe des Kunststoffs – die Adipinsäure. „Adipinsäure hat in den vergangenen Jahrzehnten vor allem als Baustein für Nylon-Kunststoffe, aber auch für Lebensmittelzusätze, Pharmazeutika, Dünger und Pflanzenschutzmittel einen Weltmarkt von jährlich mehreren Milliarden Euro pro Jahr erreicht“, sagt Professor Christoph Wittmann. Bislang sei die Säure aber nur unter hohem Energieverbrauch aus Erdöl zu gewinnen. Wittmann und sein Team wollen die Substanz künftig aus Abfallstoffen gewinnen. „In der Holz- und Papierindustrie sowie bei der Herstellung von Biotreibstoffen fällt viel Lignin an“, erläutert Wittmann. „Mangels Alternativen wird dies bislang meist nur verbrannt.“

Die Forscher möchten bei ihrem Vorhaben Stoffwechselwege von Bakterien ausnutzen, die verarbeitetes Lignin zu einer Vorstufe der Adipinsäure zusammensetzen können. „In einer chemischen Nachbehandlung, einer sogenannten Hydrierung, wollen wir diese Vorstufe direkt in Adipinsäure umwandeln und daraus dann den hochwertigen Kunststoff zusammenbauen – vollständig biobasiert aus Abfallstoffen“, so Wittmann weiter.

Zudem möchten die Saarbrücker Wissenschaftler ihren innovativen Prozess in den kommenden Jahren derart optimieren, dass die Technologie in der Industrie zum Einsatz kommen kann. „Wir werden daran arbeiten, dass die Bakterien als maßgeschneiderte Zellfabriken den natürlichen Kunststoff mit hoher Ausbeute und Reinheit fertigen“, erläutert der Professor. „Erste Analysen haben bereits gezeigt, dass das Verfahren sowohl sehr umweltschonend als auch wirtschaftlich rentabel sein kann. Es gibt bereits Nachfragen aus der Industrie nach Bio-Nylon.“ Das Bundesministerium für Bildung und Forschung stellt für das Vorhaben in den nächsten drei Jahren insgesamt 1,4 Millionen Euro bereit.

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Generalangriff der Philosophie auf die naturwissenschaftliche Weltsicht

Der amerikanische Philosoph Thomas Nagel bläst in seinem neuen Buch mit dem Titel „Geist und Kosmos“ (ISBN 978-3518586013 ) zum Generalangriff auf die etablierte naturwissenschaftliche Weltsicht. Ihr Problem, so seine These, ist grundsätzlicher Natur: Das, was den menschlichen Geist auszeichnet – Bewusstsein, Denken und Werte –, lässt sich nicht reduzieren, schon gar nicht auf überzeitliche physikalische Gesetze.

Hat Thomas Nagel recht oder passt seine eigene Weltsicht nicht zur Realität?

Zur Beantwortung der Frage möchte ich hier mein eigenes Weltbild als Naturwissenschaftler kurz skizzieren. Mein Weg zur Erklärung von Information, Bewusstsein, Sinn, Bedeutung, aber auch Dingen wie Krankheit oder die Phänomene der Quantenphysik, basiert auf einer strikten Trennung der abstrakten geistigen von der physikalischen Welt, da jede Vermischung beider Welten zu Ergebnissen führt, die weder real sind noch zur Naturwissenschaft gehören, sondern allein in der abstrakten geistigen Welt angesiedelt sind.

Beispielsweise gehören mathematische Formeln, exakte geometrische Formen, Gottheiten oder “unmögliche Dinge” wie eckige Kreise und eierlegende Wollmilchsäue zur abstrakten geistigen Welt. Ein Großteil der Objekte der Philosophie gehört dorthin. In der geistigen Welt existiert alles, was man nur denken kann.

Zum Bereich der realen physikalischen Welt gehört alles, was sich prinzipiell messen oder beobachten lässt, d. h. Wechselwirkungen mit anderen Objekten eingeht. Das Kriterium “Wechselwirkungen” hilft uns zu unterscheiden, was in die eine, was in die andere Welt gehört. Beispielsweise können eierlegende Wollmilchsäue in der freien Natur nicht fotografiert werden, d.h. sie können keine Photonen aussenden, die zu Wechselwirkungen mit dem Foto-Chip führen. Würde jemand mit einem Fotoapparat losziehen, um Bilder von der Wollmilchsau-Spezies zu schießen, würde man ihn zu Recht für dumm oder verrückt erklären, weil er die Realität nicht von der geistigen Welt zu unterscheiden vermag. Wenn es allerdings um die Anbetung von Gottheiten geht, dann ist die Gemeinschaft der Gläubigen geneigt, die Entitäten ihres eigenen Glaubens für real zu halten, die der Andersgläubigen aber für irreal.

Wie Schrödingers Katze die abstrakte mit der realen Welt vermischt

Die Vermischung von realer und geistiger Welt findet man nicht nur im geisteswissenschaftlichen oder theologischen Bereich, sondern genauso bei jenen Quantenphysikern, die Schrödingers Wellenfunktion als eine Beschreibung der Wirklichkeit ansehen. Zur Erinnerung: Schrödingers Wellenfunktion ist eine mathematische Formel zur Beschreibung des Zustands von Quanten vor ihrer Messung. Wäre die Wellenfunktion eine Beschreibung der Wirklichkeit, dann wäre Schrödingers Katze, die in einem Gedankenexperiment zusammen mit einem Mordinstrument in eine Kiste eingesperrt ist, vor dem Öffnen der Kiste gleichzeitig tot und lebendig.

Schrödingers Katze ist ein gutes Beispiel für die Vermischung der abstrakten Welt mit der realen physikalischen (siehe auch: „Der Widerhall des Urknalls“ ISBN 978-3848212255, S. 113). Die Wellenfunktion gehört als mathematische Formel zur abstrakten geistigen Welt, die Katze in der Kiste zur realen physikalischen. Die Vermischung der beiden Welten in einer physikalischen Theorie führt zu etwas, was in der realen Welt völliger Unsinn, in der abstrakten geistigen Welt ein erlaubtes gedankliches Konstrukt ist. Man muss sich nur im Klaren darüber sein, dass die Ergebnisse der Theorien, die beide Welten miteinander vermischen, nicht zur realen Welt gehören. Um es noch mal ganz deutlich zu sagen: Die gleichzeitig tote und lebendige Katze von Schrödingers Gedankenexperiment gehört nicht der realen Welt an.

Wie abstrakte und reale Welt miteinander verbunden sind

Zwischen der abstrakten und der physikalischen Welt gibt es nur eine Verbindung: Das sind die Prozesse. Dabei definiere ich einen Prozess in Übereinstimmung mit der DIN IEC 60050-351 als die Gesamtheit von aufeinander einwirkenden Vorgängen in einem System, durch die Materie, Energie oder Information umgeformt, transportiert oder gespeichert wird.“ Beispielsweise sind Computerprogramme Prozesse. Der Programmcode gehört zur abstrakten geistigen Welt. Die Ausführung des Programmcodes gehört zur physikalischen Welt, weil jede Durchführung eines Programmschritts eine Wechselwirkung darstellt.

Thomas Nagel ist wohl nicht bewusst, dass Prozesse die Verbindung zwischen der abstrakten geistigen und der realen Welt darstellen. Es mag völlig richtig sein, dass “Werte” nicht zur naturwissenschaftlichen Welt gehören, doch wenn Werte (= Ziele) in Prozesse (= Programme) eingebaut werden, dann verbinden sie die abstrakte Welt mit der physikalischen. Das Gleiche gilt für “Denken”. Denken formt Information um oder speichert sie. Denken kann deshalb als ein Prozess angesehen werden und der Denkprozess verbindet die abstrakte mit der realen Welt, indem etwas ausgeführt wird. Abstrakte Information wird umgeformt und physikalisch gespeichert.

Was ist aber mit dem Bewusstsein? Allgemein wird Bewusstsein als eine Entität angesehen, die je nachdem, aus welcher Fakultät der Wissenschaftler stammt, entweder einer nicht fassbaren, d. h. abstrakten, oder einer realen materialistischen, d. h. physikalischen Welt zugeordnet wird. Theologen und Geisteswissenschaftler neigen eher dazu, Bewusstsein als eine Entität der geistigen Ebene anzusehen. Dagegen ist nach meiner Überzeugung Bewusstsein ein Prozess (wie ich unter anderem in meinem Büchlein mit dem Titel “Synthetisches Bewusstsein ISBN 978-3842368033”) beschrieben habe. Damit verbindet es beide Welten, die abstrakte geistige und die physikalische.

Nagel hat insoweit recht, dass alle drei Entitäten, die den menschlichen Geist auszeichnen, sich nicht auf physikalische Gesetze reduzieren lassen. Aber sie lassen sich auf Prozesse reduzieren, die eine Verbindung zwischen der physikalischen und der abstrakten Welt darstellen.

Kann Krankheit auf überzeitliche physikalische Gesetze reduziert werden?

Wir können das bisher Gesagte anwenden und testen, indem wir einmal untersuchen, wo Krankheit einzuordnen ist. Ist Krankheit etwas abstrakt Geistiges oder ist es eine Entität der naturwissenschaftlichen Weltsicht? Nagel würde jetzt sagen: „Krankheit lässt sich nicht reduzieren auf überzeitliche physikalische Gesetze.“

Ich sehe Krankheit als ein Abweichen von der Regelhaftigkeit der Lebensvorgänge. Das Ausmaß dieses Abweichens bestimmt, ob es sich um Krankheit handelt oder nicht. Das Ausmaß ist ein abstrakter geistiger Wert. Lebensvorgänge sind Prozesse, denn in einem biologischen System, auf das sich der jeweilige Lebensvorgang bezieht, wird Materie, Energie oder Information umgeformt, transportiert oder gespeichert. Wenn es bei einem der Systemelemente zu Abweichungen kommt, dann kann das als Krankheit gelten. Weil Lebensvorgänge Prozesse sind, sehe ich Krankheit ebenfalls als einen Prozess. Da in Prozessen regelmäßig Information umgeformt, transportiert oder gespeichert wird, liegt in der Beobachtung und Einordnung der sich verändernden Information einer der Schlüssel zum tieferen Verständnis für das Wesen der Krankheit. Wie Information sich auf den Krankheitsprozess auswirkt, werde ich in einem meiner nächsten Beiträge untersuchen. – Klaus-Dieter Sedlacek

Buchtipps:

 

Gigantische Versuchsanordnung im arktischen Eis findet Geisterteilchen

Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.  (c) Foto: IceCube Collaboration/NSF
Neutrino-Jagd im ewigen Eis: Das Bild zeigt einen von 5.160 hochempfindlichen Lichtsensoren, die am Südpol installiert wurden.
(c) Foto: IceCube Collaboration/NSF

Darauf hat die IceCube-Kollaboration seit Jahren hingearbeitet. Nun deutet alles darauf hin, dass den Forschern im antarktischen Eis Neutrinos von außerhalb unseres Sonnensystems ins Netz gegangen sind. Unter den gefundenen Ereignissen befinden sich Neutrinos mit Energien, die tausendmal höher sind, als man sie auf der Erde selbst erzeugen kann. Diese kosmischen Neutrinos können einzigartige Informationen über den Aufbau von Supernovas, Gamma-Ray-Blitze oder Schwarzen Löchern liefern.

Das Neutrino-Teleskop IceCube am Südpol ist weltweit einmalig. In einem Kubikkilometer Eis sind insgesamt 5.160 hochempfindliche Lichtsensoren installiert. Wenn doch mal ein Neutrino im Eis wechselwirkt, entstehen geladene Teilchen die mit nahezu Lichtgeschwindigkeiten weiterfliegen. Diese erzeugen ein schwaches bläuliches Licht, das von den Detektoren aufgefangen wird.

„Wir sehen hochenergetische Neutrinos, von denen wir jetzt mit ziemlicher Sicherheit sagen können, dass sie astrophysikalischen Ursprungs sind“, sagt Prof. Dr. Marek Kowalski vom Physikalischen Institut der Universität Bonn. Neutrinos sind ganz besondere Teilchen: Sie können anders als elektromagnetische Strahlung sämtliche Materie durchdringen. Mit ihrer Hilfe lässt sich wie mit einem Röntgenapparat in die verstecktesten Winkel des Universums blicken. Allerdings wechselwirken diese Teilchen kaum und könnten selbst von einer Bleiabschirmung mit 1000 Kilometer Dicke nicht aufgehalten werden. Ihr Nachweis ist deshalb besonders schwierig. Mit der gigantischen Messeinrichtung „IceCube“ in der Antarktis sind nun dennoch zum ersten Mal Hinweise für hochenergetische Neutrinos aus dem Weltall gefunden worden.

Die meisten Neutrinos auf der Erde entstehen bei niedrigen Energien durch Kernfusion in der Sonne, sie können sich aber auch in der Erdatmosphäre bilden. Die Forscher des IceCube Projektes interessieren sich aber besonders für hochenergetische Neutrinos aus astrophysikalischen Quellen – zum Beispiel von Supernovas, Gamma-Ray-Blitzen oder galaktischen Schwarzen Löchern. Denn Neutrinos sind die einzigen Teilchen, die aus dem Inneren dieser Quellen entkommen können und damit einzigartige Informationen über ihren Aufbau liefern.

Morgendämmerung für ein neues Zeitalter der Astronomie

Gelungen ist der Nachweis der Neutrinos einem internationalen Team von rund 250 Wissenschaftlern und Ingenieuren der IceCube-Kollaboration unter Beteiligung der Astroteilchen-Gruppe von Prof. Kowalski. Mit der gigantischen Versuchsanordnung im antarktischen Eis wurden in den vergangenen zwei Jahren insgesamt 28 Neutrinos mit Energien größer als 30 Tera-Elektronenvolt (TeV), darunter zwei Ereignisse mit über 1000 TeV registriert. Dieser Fund war für die Forscher so bedeutsam, dass die Teilchen sogar eigene Namen bekamen: Ernie & Bert – den beiden beliebten Figuren aus der Fernsehserie „Sesamstraße“.

Mit der verbesserten Analyse der Daten, die nun auch die Richtung der Neutrinos liefert, konnten nicht nur diese beiden, sondern ein Großteil dieser Teilchen als potentielle kosmische Fernreisende identifiziert werden. „Das ist der erste Hinweis auf hochenergetische Neutrinos, die von außerhalb unseres Sonnensystems kommen“, sagt Prof. Dr. Francis Halzen, Projektleiter des IceCube-Experiments von der Universität Wisconsin-Madison (USA). „Dies ist die Morgendämmerung für ein neues Zeitalter der Astronomie.“

Ein Rätsel bleiben jedoch noch die Quellen, aus denen die Neutrinos im Weltraum stammen. Eine Möglichkeit sind Supernovas, bei denen die hochenergetischen Teilchen freigesetzt werden. Das Bild, das sich aus dem IceCube-Experiment abzeichnet, stellt sich für die Wissenschaftler noch verschwommen dar. „Wir können die kosmischen Quellen der Teilchen noch nicht nachweisen, weil wir bislang nicht exakt genug bestimmen konnten, aus welcher Richtung die Neutrinos aus dem Weltall in das Eis eindringen“, erklärt Prof. Kowalski. Die Forscher hoffen darauf, demnächst noch mehr Teilchen nachzuweisen, damit sich die Quellen allmählich schärfer abzeichnen.

Publikation: Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detector, Science, DOI: 10.1126/science.1242856

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Künstliche Fotosynthese: Lösung aller Energieprobleme?

Heidelberg. Die Sonne ist eine unerschöpfliche und zudem saubere Energiequelle. Fotovoltaikanlagen und Solarthermiekraftwerke zapfen sie bereits an und gewinnen aus Sonnenlicht Strom. Der ist jedoch nur sehr begrenzt speicherbar und muss sofort verbraucht werden. Sein Transport über weite Strecken ist zudem mit großen Verlusten verbunden. Nur über den Umweg der Wasserelektrolyse lässt sich elektrischer Strom in den breiter einsetzbaren Energieträger Wasserstoff umwandeln, was aber sehr ineffektiv ist.

Eine wesentlich elegantere Lösung macht uns die Natur seit jeher vor: die Fotosynthese. Dabei erzeugen Pflanzen, Algen und gewisse Bakterien mit Hilfe von Sonnenlicht aus Kohlendioxid und Wasser direkt energiereiche Zuckermoleküle. Schon seit einiger Zeit versuchen Forscher deshalb, den Vorgang künstlich nachzuahmen. Dabei geht es ihnen vor allem um den ersten Schritt der Fotosynthese: die Spaltung von Wasser in Wasserstoff und Sauerstoff.

Die bisher erzielten Erfolge sind beachtlich. So präsentierte Daniel Nocera vom Massachussetts Institute of Technology vor zwei Jahren ein “künstliches Blatt”. Es besteht aus einer Solarzelle, in der auftreffendes Sonnenlicht freie Elektronen und “Löcher” (Elektronenfehlstellen) erzeugt. Die dem Licht zugewandte Seite ist mit einem cobalthaltigen Katalysator beschichtet, der mit Hilfe der Löcher aus Wasser Sauerstoff freisetzt. Die zurückbleibenden Protonen wandern zur anderen Seite und werden dort von einer Legierung aus Nickel, Molybdän und Zink mit Hilfe der Elektronen zu Wasserstoff reduziert. Der Wirkungsgrad liegt mit 2,5 bis 4,7 Prozent – je nach genauer Konfiguration – schon recht hoch. Pflanzen verwerten das auftreffende Sonnenlicht sogar nur zu 0,3 Prozent.

Allerdings ist dieses “Blatt” wegen der enthaltenen Metalle noch ziemlich teuer und auch nicht lange beständig. Markus Antonietti vom Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Golm hat sich deshalb auf ein anderes Material verlegt, das nicht nur sehr stabil, sondern auch einfach und preiswert herstellbar ist: graphitisches Kohlenstoffnitrid. Schon Justus Liebig kannte die Substanz im 19. Jahrhundert. Sie ist entfernt mit dem Chlorophyll des Blattgrüns verwandt und ähnelt stark dem Graphen – einer maschendrahtartigen Anordnung von Kohlenstoffatomen, der viele eine große Zukunft in der Elektronik vorhersagen.

Kohlenstoffnitrid als solches ist allerdings nicht sehr aktiv, was unter anderem an seinem zu geringen Verhältnis von Oberfläche zu Volumen liegt. Wie Antonietti in Spektrum der Wissenschaft berichtet, konnte seine Gruppe aber bereits eine Steigerung um das Zehnfache erreichen, indem sie gezielt die Porosität des Materials erhöhte.

Eine weitere Verbesserung ließ sich durch Dotieren mit Schwefel oder Barbitursäure erreichen. Auf diese Weise konnten die Forscher die Quantenausbeute der Oxidation von Wasser zu Protonen und Sauerstoff für violette Strahlung einer Wellenlänge von 440 Nanometern immerhin auf 5,7 Prozent steigern. Hilfreich war auch die Zugabe von Nanoteilchen aus Cobaltoxid. Dadurch erhöhte sich die Quantenausbeute für die Wasserspaltung insgesamt auf 1,1 Prozent.

Alles in allem sehen die bisherigen Ergebnisse also ermutigend aus. Zwar veranschlagt Antonietti bis zur praktischen Einsatzreife seines Systems noch mindestens 20 Jahre. Doch die Aussichten wären verlockend. Wenn sich mit künstlichen Fotosynthesesystemen 10 Prozent der Solarenergie nutzen ließen, müssten sie nur 0,16 Prozent der Erdoberfläche bedecken, um den für 2030 vorausgesagten globalen Energiebedarf von 20 Terawattstunden zu decken. Als Standorte kämen dabei in erster Linie Wüsten in Frage, wo die Sonne fast immer scheint und keine Konkurrenz zu Agrarnutzflächen besteht. Ein Zehntel der Sahara, die 1,76 Prozent der Erdoberfläche einnimmt, würde bereits genügen.

Wie heutige Solarzellen ließen sich künstliche Fotosynthesesysteme aber auch auf Dächern installieren. Bei einer Lichtausbeute von 10 Prozent könnten sie beispielsweise 300 Tonnen Methanol pro Hektar und Jahr liefern. “Wären nur 100 Quadratmeter des eigenen Grundstücks damit bedeckt, bräuchte selbst ein leidenschaftlicher Autofahrer bei heutigem Treibstoffverbrauch nie mehr zur Tankstelle”, erklärt Antonietti.  (Quelle: Spektrum der Wissenschaft, September 2013)

Meerwasserentsalzung: Neue energiesparende Technik entwickelt

Eine neue Methode zur Entsalzung von Meerwasser wird von einem amerikanisch-deutschen Team in der Zeitschrift Angewandte Chemie vorgestellt. Anders als herkömmliche Verfahren schluckt diese Methode wenig Energie und ist sehr einfach. Diese „elektrochemisch vermittelte Meerwasserentsalzung“ basiert auf einem Mikrokanalsystem und einer bipolaren Elektrode.

Die Vereinten Nationen schätzen, dass bereits ein Drittel der Weltbevölkerung in wasserarmen Gegenden lebt, bis 2025 soll sich diese Zahl verdoppeln. An Salzwasser herrscht dagegen kein Mangel. Eine naheliegende Lösung ist daher, Meerwasser zu entsalzen. Allerdings ist das gar nicht so einfach. Verfahren wie die Verdampfung und anschließende Kondensation des Wassers verbrauchen enorme Mengen an Energie. Die Umkehrosmose benötigt darüber hinaus teure, empfindliche Membranen, die leicht verkeimen, und aufwendige Vorbehandlungsschritte.

Der von Richard M. Crooks (University of Texas at Austin), Ulrich Tallarek (Universität Marburg) und ihren Kollegen mit Unterstützung des US-Energieministeriums entwickelte elektrochemische Ansatz kommt dagegen ohne Membran und hohe Energiemengen aus. Die Forscher drücken das Meerwasser durch ein System aus zwei Mikrokanälen von je 22 µm Breite, einem „Hilfskanal“ und einem verzweigten Arbeitskanal, sodass ein Fluss in Richtung der Auslassöffnungen entsteht. Die beiden Kanälchen sind elektrisch über eine bipolare Elektrode verbunden. Der Hilfskanal wird an eine Spannungsquelle angeschlossen, der Arbeitskanal geerdet und eine Potentialdifferenz von 3.0 V zwischen den Kanälen eingestellt.

Entscheidend ist der Aufbau des Kanalsystems: Die Elektrode ragt in die Verzweigungsstelle des Arbeitskanals. Aufgrund der Spannung wird ein Teil der negativ geladenen Chloridionen des Meerwassers an diesem Ende der Elektrode zu neutralem Chlor oxidiert. In dem feinen Kanalsystem entsteht dadurch an der Stelle der Abzweigung eine Zone, die an negativ geladenen Ionen verarmt ist, und als Folge ein elektrischer Feldgradient, der die positiv geladenen Ionen des Meerwassers in den abzweigenden Kanal dirigiert. Da aus physikalischen Gründen aber die Elektroneutralität innerhalb des Mikrokanals gewahrt bleiben muss, wandern auch die Anionen mit in die Abzweigung. Im abzweigenden Kanälchen entsteht so ein mit Salz angereicherter Strom, während in der Weiterführung des Arbeitskanälchens teilentsalztes Wasser fließt.

Die für die neue Technik benötigte Energiemenge ist so gering, dass das System mit einer einfachen Batterie arbeiten kann. Anders als bei der Umkehrosmose sind lediglich Sand und Schmutz aus dem Meerwasser zu entfernen, weitere Vorbehandlungsschritte, eine Desinfektion oder Zugabe von Chemikalien sind nicht erforderlich. Durch einfache Parallelschaltung vieler Mikrokanalsysteme kann der Wasserdurchsatz entsprechend erhöht werden. (Quelle: idw).

Der Anfang allen Seins

Die moderne Kosmologie geht davon aus, dass unser Universum aus dem Nichts entstanden ist. Wenn man so eine Aussage liest oder hört, drängt sich sofort die Frage auf, wie denn aus nichts etwas entstehen kann. Nicht nur das physikalische Prinzip, dass es zu jedem physischen Ereignis eine physische Ursache geben muss, sondern auch der »gesunde Menschenverstand« lässt die Aussage eher als eine philosophische Idee erscheinen und weniger als eine wissenschaftlich fundierte Theorie. Eine wissenschaftliche Theorie muss empirisch überprüfbar sein. Wie kann aber der Anfang allen Seins durch ein Experiment überprüft werden? Welche Fakten sprechen für den Beginn von Raum, Zeit und Materie aus dem Nichts?
Trotz der Zweifel gibt es gute und rational nachvollziehbare Gründe, von einem Beginn des Universums aus dem Nichts auszugehen. Den Beginn, kurz Urknall, darf man sich nicht als eine riesige Explosion im Weltall vorstellen. Der Urknall ist ganz unspektakulär ein nicht näher bekannter physikalischer Zustand, bei dem Raum und Zeit sowie die beteiligten Energien in einem winzigen Bereich extrem hoher Dichte zusammenfallen (Singularität). Wenn die Theorie richtig ist, dann existierte das Weltall vor der Singularität genauso wenig, wie es davor Materie gab. Auch Zeit hätte ihren Ursprung erst im Urknall.
Der englische Astronom Fred Hoyle, der Anhänger eines ewigen, statischen Universums war, wollte durch die unwissenschaftliche Bezeichnung Urknall (engl. »Big Bang«) die Theorie der Urknall-Verfechter unglaubwürdig erscheinen zu lassen. Zu diesen Verfechtern gehörte sein belgischer Kollege, der Theologe und Astrophysiker, Georges Lemaître. Hoyle sprach sich dafür aus, dass sich das Universum in einem Zustand der Gleichförmigkeit (Steady-State-Theorie) ohne Anfang und ohne Ende befinde.
Wie begründete Lemaître die Idee vom Anfang allen Seins aus dem Nichts? Handelte es sich um seine theologische Vorstellung oder gab es harte Fakten?

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit