Archiv der Kategorie: Technik u. Energie

Was ist eigentlich Entropie?

Entropie

Die Entropie wird oft missverständlich als eine Art „Unordnung“ bezeichnet. Doch das greift viel zu kurz. Einst eingeführt, um den begrenzten Wirkungsgrad von Dampfmaschinen zu erklären, wird der Begriff heute auch in vielen anderen Disziplinen genutzt.

Kaum ein Begriff der Physik wird so gerne außerhalb der Physik benutzt – und so oft abweichend von seiner eigentlichen Bedeutung – wie der der Entropie. Dabei hat der Begriff durchaus eine eng umrissene Bedeutung. Eine konkrete Definition dieser physikalischen Größe stellte der österreichische Physiker Ludwig Boltzmann in der zweiten Hälfte des 19. Jahrhunderts auf. Er konzentrierte sich auf das mikroskopische Verhalten eines Fluids, also eines Gases oder einer Flüssigkeit. Die ungeordnete Bewegung von Atomen oder Molekülen darin verstand er dabei als Wärme, was für seine Definition entscheidend war.

Entropie in der Badewanne

In einem abgeschlossenen System mit festem Volumen und fixer Teilchenzahl, so legte Boltzmann fest, ist die Entropie proportional zum Logarithmus der Anzahl von Mikrozuständen in dem System. Unter Mikrozuständen verstand er alle Möglichkeiten, wie sich die Moleküle oder Atome des eingesperrten Fluids anordnen können. Seine Formel definiert die Entropie somit als ein Maß für die „Anordnungsfreiheit“ der Moleküle und Atome: Steigt die Zahl der einnehmbaren Mikrozustände, dann wächst die Entropie. Gibt es weniger Möglichkeiten, wie sich die Teilchen des Fluids anordnen können, ist die Entropie kleiner.

Boltzmanns Formel wird oft so interpretiert, als sei die Entropie gleichbedeutend mit „Unordnung“. Dieses vereinfachte Bild führt allerdings leicht in die Irre. Ein Beispiel dafür ist der Schaum in einer Badewanne: Wenn die Bläschen zerplatzen und die Wasseroberfläche glatt wird, hat es den Anschein, als nehme die Unordnung ab. Die Entropie tut das aber nicht! Tatsächlich nimmt sie sogar zu, denn nach dem Zerplatzen des Schaums ist der mögliche Aufenthaltsraum für die Moleküle der Flüssigkeit nicht mehr auf die Außenhäute der Bläschen beschränkt – die Zahl der einnehmbaren Mikrozustände hat sich also vergrößert. Die Entropie ist gewachsen.

Mithilfe der Boltzmannschen Definition lässt sich eine Seite des Begriffs verstehen – doch die Entropie hat auch eine andere, makroskopische Seite, die der deutsche Physiker Rudolf Clausius bereits einige Jahre zuvor aufgedeckt hatte. Zu Beginn des 18. Jahrhunderts wurde die Dampfmaschine erfunden, eine klassische Wärmekraftmaschine. Wärmekraftmaschinen wandeln einen Temperaturunterschied in mechanische Arbeit um. Physiker versuchten damals zu begreifen, welchen Prinzipien diese Maschinen gehorchen. Die Forscher stellten nämlich irritiert fest, dass sich nur ein paar Prozent der thermischen Energie in mechanische Energie umwandeln ließen. Der Rest ging irgendwie verloren – ohne dass sie den Grund verstanden.

Wertigkeit der Energie

Der Theorie der Thermodynamik schien ein physikalisches Konzept zu fehlen, das die unterschiedliche Wertigkeit der Energie berücksichtigt und die Fähigkeit begrenzt, thermische Energie in mechanische Energie umzuwandeln. In Gestalt der Entropie kam die Lösung. Mitte des 19. Jahrhunderts führte Clausius den Begriff als thermodynamische Größe ein und definierte ihn als makroskopisches Maß für eine Eigenschaft, die die Nutzbarkeit von Energie begrenzt.

Clausius zufolge hängt die Entropieänderung eines Systems von der zugeführten Wärme und der dabei herrschenden Temperatur ab. Zusammen mit Wärme wird immer Entropie übertragen, so sein Fazit. Darüber hinaus stellte Clausius fest, dass die Entropie in geschlossenen Systemen, anders als die Energie, keine Erhaltungsgröße ist. Diese Erkenntnis ging als der zweite Hauptsatz der Thermodynamik in die Physik ein:

„In einem geschlossenen System nimmt die Entropie niemals ab.“

Die Entropie nimmt demnach immer zu oder bleibt konstant. Damit wird in die Physik geschlossener Systeme ein Zeitpfeil eingeführt, denn bei wachsender Entropie sind thermodynamische Prozesse in geschlossenen Systemen unumkehrbar (oder irreversibel).

Reversibel (umkehrbar) wäre ein Prozess nur dann, wenn die Entropie konstant bliebe. Das ist aber bloß theoretisch möglich. Alle realen Prozesse sind irreversibel. Frei nach Boltzmann kann man auch sagen: Die Zahl der möglichen Mikrozustände nimmt jederzeit zu. Diese mikroskopische Interpretation erweitert die thermodynamisch-makroskopische Interpretation durch Clausius. Durch die Entropie ließ sich das Rätsel um die verschwundene Energie in Wärmekraftmaschinen endlich auflösen (siehe Kasten). Ständig entzieht sich ein Teil der Wärmeenergie der mechanischen Nutzbarkeit und wird wieder abgegeben, weil die Entropie in geschlossenen Systemen nicht abnehmen darf.

Vielseitiger Einsatz

Seit den Erkenntnissen von Clausius und Boltzmann ist die Entropie auch in andere Bereiche der Physik eingezogen. Sogar außerhalb der Physik griff man sie auf, jedenfalls als mathematisches Konzept. Beispielsweise führte der US-amerikanische Mathematiker und Elektrotechniker Claude Shannon im Jahr 1948 die sogenannte Informationsentropie ein. Mit dieser Größe charakterisierte er den Informationsverlust in Übertragungen per Telefonleitung.

Auch in der Chemie und Biologie spielt die Entropie eine Rolle: In bestimmten offenen Systemen können sich neue Strukturen bilden, sofern Entropie nach außen abgegeben wird. Es muss sich dabei um sogenannte dissipative Systeme handeln, bei denen also Energie in thermische Energie umgewandelt wird. Diese Theorie der Strukturbildung stammt vom belgischen Physikochemiker Ilya Prigogine. Bis heute werden Arbeiten veröffentlicht, in denen der physikalischen Tragweite des Konzepts neue Aspekte hinzugefügt werden.

Wirkungsgrad und Entropie

Warum ist der Wirkungsgrad von Wärmekraftmaschinen begrenzt? Rudolf Clausius löste dieses Rätsel, indem er den Begriff der Entropie einführte. Der Physiker betrachtete den Kreisprozess einer idealisierten Wärmekraftmaschine, bei dem sich Expansion und Kompression unter isothermen (konstante Temperatur) und isentropen (konstante Entropie) Bedingungen abwechseln. Durch Verknüpfung der Energieerhaltung mit dem zweiten Hauptsatz der Thermodynamik ergibt sich in diesem sogenannten Carnotprozess die folgende Ungleichung für den Wirkungsgrad:

η≤(T1T2)/T1

T1 und T2 sind die beiden Temperaturen, zwischen denen der Kreisprozess betrieben wird. Der maximal erreichbare Wirkungsgrad einer Wärmekraftmaschine ist also durch thermodynamische Gesetzmäßigkeiten begrenzt. Ein Beispiel: Wird die Maschine zwischen 100 und 200 Grad Celsius betrieben, dann liegt der maximal erreichbare Wirkungsgrad bei rund 27 Prozent (die Temperaturwerte müssen in der Einheit Kelvin in die Formel eingesetzt werden).

Aus der Energieerhaltung und dem zweiten Hauptsatz der Thermodynamik lassen sich auf mathematischem Weg auch noch zwei weitere nützliche Erkenntnisse ableiten: Wärme kann nur dann von einem kalten auf einen warmen Körper übergehen, wenn Arbeit aufgewendet wird – Kühlschränke und Wärmepumpen benötigen eine Energiezufuhr. Zweitens lässt sich mit einem Wärmereservoir konstanter Temperatur keine Arbeit verrichten. Dazu ist immer der Fluss von Wärme zwischen Reservoirs unterschiedlicher Temperatur notwendig.

Entropie in Formeln

Der Begriff Entropie ist eine Neubildung durch Rudolf Clausius aus griechischen Wörtern und bedeutet übersetzt ungefähr „Wandlungsgehalt“. Laut dem Physiker hängt die Entropieänderung ΔS eines Systems folgendermaßen mit der zugeführten Wärme und der Temperatur zusammen:

ΔS=ΔQ/T

Dabei bezeichnet ΔQ eine kleine, dem System reversibel zugeführte Wärmemenge und T die Temperatur, die bei dieser Übertragung herrscht. Die Formel besagt, dass zusammen mit Wärme immer Entropie übertragen wird. Boltzmanns Definition der Entropie beruht auf dem Verständnis der Wärme als ungeordnete Bewegung von Atomen oder Molekülen. Ihm zufolge ist die Entropie S durch folgende Formel gegeben:

S=k lnW

Die Entropie ist also proportional zum Logarithmus der Zahl W der „Mikrozustände“ eines Systems, wobei alle anderen Parameter – wie Volumen und Teilchenzahl – konstant sind. Mit den Mikrozuständen sind die Möglichkeiten gemeint, wie die Moleküle oder Atome eines eingesperrten Fluids angeordnet sein können. Die Konstante k ist die Boltzmann-Konstante.

Autor: Sven Titz; Quelle: Welt der Physik; Lizenz: CC by-nc-nd

Merken

Merken

Biotechnologie: Bakterien sollen Bio-Nylon produzieren

Schätzungen zur Folge sollen die Erdölvorkommen Mitte des Jahrhunderts zur Neige gehen. Für Erdöl, das nicht nur als Ausgangssubstanz für Benzin oder Heizöl dient, sondern etwa auch für Farben, Kosmetik und Kunststoff, müsste spätestens dann eine Alternative her. Weltweit sind Forscher daher bemüht, neue und nachhaltige Wege für die industrielle Produktion zu erschließen. Auch an der Universität des Saarlandes beschäftigen sich Professor Christoph Wittmann und seine Arbeitsgruppe damit, etwa Chemikalien und Wirkstoffe auf Basis nachwachsender Rohstoffe herzustellen.

In einem neuartigen Ansatz arbeiten die Saarbrücker Forscher nun daran, Nylon mittels biotechnologischer Methoden zu produzieren. Nylon ist einer der weltweit wichtigsten Kunststoffe – er kommt nicht nur in Strumpfhosen, sondern auch in vielen Verbundwerkstoffen vor, die zum Beispiel beim Autobau verwendet werden. Bei seinem Verfahren setzt das Team um Wittmann auf die zentrale Vorstufe des Kunststoffs – die Adipinsäure. „Adipinsäure hat in den vergangenen Jahrzehnten vor allem als Baustein für Nylon-Kunststoffe, aber auch für Lebensmittelzusätze, Pharmazeutika, Dünger und Pflanzenschutzmittel einen Weltmarkt von jährlich mehreren Milliarden Euro pro Jahr erreicht“, sagt Professor Christoph Wittmann. Bislang sei die Säure aber nur unter hohem Energieverbrauch aus Erdöl zu gewinnen. Wittmann und sein Team wollen die Substanz künftig aus Abfallstoffen gewinnen. „In der Holz- und Papierindustrie sowie bei der Herstellung von Biotreibstoffen fällt viel Lignin an“, erläutert Wittmann. „Mangels Alternativen wird dies bislang meist nur verbrannt.“

Die Forscher möchten bei ihrem Vorhaben Stoffwechselwege von Bakterien ausnutzen, die verarbeitetes Lignin zu einer Vorstufe der Adipinsäure zusammensetzen können. „In einer chemischen Nachbehandlung, einer sogenannten Hydrierung, wollen wir diese Vorstufe direkt in Adipinsäure umwandeln und daraus dann den hochwertigen Kunststoff zusammenbauen – vollständig biobasiert aus Abfallstoffen“, so Wittmann weiter.

Zudem möchten die Saarbrücker Wissenschaftler ihren innovativen Prozess in den kommenden Jahren derart optimieren, dass die Technologie in der Industrie zum Einsatz kommen kann. „Wir werden daran arbeiten, dass die Bakterien als maßgeschneiderte Zellfabriken den natürlichen Kunststoff mit hoher Ausbeute und Reinheit fertigen“, erläutert der Professor. „Erste Analysen haben bereits gezeigt, dass das Verfahren sowohl sehr umweltschonend als auch wirtschaftlich rentabel sein kann. Es gibt bereits Nachfragen aus der Industrie nach Bio-Nylon.“ Das Bundesministerium für Bildung und Forschung stellt für das Vorhaben in den nächsten drei Jahren insgesamt 1,4 Millionen Euro bereit.

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Generalangriff der Philosophie auf die naturwissenschaftliche Weltsicht

Der amerikanische Philosoph Thomas Nagel bläst in seinem neuen Buch mit dem Titel „Geist und Kosmos“ (ISBN 978-3518586013 ) zum Generalangriff auf die etablierte naturwissenschaftliche Weltsicht. Ihr Problem, so seine These, ist grundsätzlicher Natur: Das, was den menschlichen Geist auszeichnet – Bewusstsein, Denken und Werte –, lässt sich nicht reduzieren, schon gar nicht auf überzeitliche physikalische Gesetze.

Hat Thomas Nagel recht oder passt seine eigene Weltsicht nicht zur Realität?

Zur Beantwortung der Frage möchte ich hier mein eigenes Weltbild als Naturwissenschaftler kurz skizzieren. Mein Weg zur Erklärung von Information, Bewusstsein, Sinn, Bedeutung, aber auch Dingen wie Krankheit oder die Phänomene der Quantenphysik, basiert auf einer strikten Trennung der abstrakten geistigen von der physikalischen Welt, da jede Vermischung beider Welten zu Ergebnissen führt, die weder real sind noch zur Naturwissenschaft gehören, sondern allein in der abstrakten geistigen Welt angesiedelt sind.

Beispielsweise gehören mathematische Formeln, exakte geometrische Formen, Gottheiten oder “unmögliche Dinge” wie eckige Kreise und eierlegende Wollmilchsäue zur abstrakten geistigen Welt. Ein Großteil der Objekte der Philosophie gehört dorthin. In der geistigen Welt existiert alles, was man nur denken kann.

Zum Bereich der realen physikalischen Welt gehört alles, was sich prinzipiell messen oder beobachten lässt, d. h. Wechselwirkungen mit anderen Objekten eingeht. Das Kriterium “Wechselwirkungen” hilft uns zu unterscheiden, was in die eine, was in die andere Welt gehört. Beispielsweise können eierlegende Wollmilchsäue in der freien Natur nicht fotografiert werden, d.h. sie können keine Photonen aussenden, die zu Wechselwirkungen mit dem Foto-Chip führen. Würde jemand mit einem Fotoapparat losziehen, um Bilder von der Wollmilchsau-Spezies zu schießen, würde man ihn zu Recht für dumm oder verrückt erklären, weil er die Realität nicht von der geistigen Welt zu unterscheiden vermag. Wenn es allerdings um die Anbetung von Gottheiten geht, dann ist die Gemeinschaft der Gläubigen geneigt, die Entitäten ihres eigenen Glaubens für real zu halten, die der Andersgläubigen aber für irreal.

Wie Schrödingers Katze die abstrakte mit der realen Welt vermischt

Die Vermischung von realer und geistiger Welt findet man nicht nur im geisteswissenschaftlichen oder theologischen Bereich, sondern genauso bei jenen Quantenphysikern, die Schrödingers Wellenfunktion als eine Beschreibung der Wirklichkeit ansehen. Zur Erinnerung: Schrödingers Wellenfunktion ist eine mathematische Formel zur Beschreibung des Zustands von Quanten vor ihrer Messung. Wäre die Wellenfunktion eine Beschreibung der Wirklichkeit, dann wäre Schrödingers Katze, die in einem Gedankenexperiment zusammen mit einem Mordinstrument in eine Kiste eingesperrt ist, vor dem Öffnen der Kiste gleichzeitig tot und lebendig.

Schrödingers Katze ist ein gutes Beispiel für die Vermischung der abstrakten Welt mit der realen physikalischen (siehe auch: „Der Widerhall des Urknalls“ ISBN 978-3848212255, S. 113). Die Wellenfunktion gehört als mathematische Formel zur abstrakten geistigen Welt, die Katze in der Kiste zur realen physikalischen. Die Vermischung der beiden Welten in einer physikalischen Theorie führt zu etwas, was in der realen Welt völliger Unsinn, in der abstrakten geistigen Welt ein erlaubtes gedankliches Konstrukt ist. Man muss sich nur im Klaren darüber sein, dass die Ergebnisse der Theorien, die beide Welten miteinander vermischen, nicht zur realen Welt gehören. Um es noch mal ganz deutlich zu sagen: Die gleichzeitig tote und lebendige Katze von Schrödingers Gedankenexperiment gehört nicht der realen Welt an.

Wie abstrakte und reale Welt miteinander verbunden sind

Zwischen der abstrakten und der physikalischen Welt gibt es nur eine Verbindung: Das sind die Prozesse. Dabei definiere ich einen Prozess in Übereinstimmung mit der DIN IEC 60050-351 als die Gesamtheit von aufeinander einwirkenden Vorgängen in einem System, durch die Materie, Energie oder Information umgeformt, transportiert oder gespeichert wird.“ Beispielsweise sind Computerprogramme Prozesse. Der Programmcode gehört zur abstrakten geistigen Welt. Die Ausführung des Programmcodes gehört zur physikalischen Welt, weil jede Durchführung eines Programmschritts eine Wechselwirkung darstellt.

Thomas Nagel ist wohl nicht bewusst, dass Prozesse die Verbindung zwischen der abstrakten geistigen und der realen Welt darstellen. Es mag völlig richtig sein, dass “Werte” nicht zur naturwissenschaftlichen Welt gehören, doch wenn Werte (= Ziele) in Prozesse (= Programme) eingebaut werden, dann verbinden sie die abstrakte Welt mit der physikalischen. Das Gleiche gilt für “Denken”. Denken formt Information um oder speichert sie. Denken kann deshalb als ein Prozess angesehen werden und der Denkprozess verbindet die abstrakte mit der realen Welt, indem etwas ausgeführt wird. Abstrakte Information wird umgeformt und physikalisch gespeichert.

Was ist aber mit dem Bewusstsein? Allgemein wird Bewusstsein als eine Entität angesehen, die je nachdem, aus welcher Fakultät der Wissenschaftler stammt, entweder einer nicht fassbaren, d. h. abstrakten, oder einer realen materialistischen, d. h. physikalischen Welt zugeordnet wird. Theologen und Geisteswissenschaftler neigen eher dazu, Bewusstsein als eine Entität der geistigen Ebene anzusehen. Dagegen ist nach meiner Überzeugung Bewusstsein ein Prozess (wie ich unter anderem in meinem Büchlein mit dem Titel “Synthetisches Bewusstsein ISBN 978-3842368033”) beschrieben habe. Damit verbindet es beide Welten, die abstrakte geistige und die physikalische.

Nagel hat insoweit recht, dass alle drei Entitäten, die den menschlichen Geist auszeichnen, sich nicht auf physikalische Gesetze reduzieren lassen. Aber sie lassen sich auf Prozesse reduzieren, die eine Verbindung zwischen der physikalischen und der abstrakten Welt darstellen.

Kann Krankheit auf überzeitliche physikalische Gesetze reduziert werden?

Wir können das bisher Gesagte anwenden und testen, indem wir einmal untersuchen, wo Krankheit einzuordnen ist. Ist Krankheit etwas abstrakt Geistiges oder ist es eine Entität der naturwissenschaftlichen Weltsicht? Nagel würde jetzt sagen: „Krankheit lässt sich nicht reduzieren auf überzeitliche physikalische Gesetze.“

Ich sehe Krankheit als ein Abweichen von der Regelhaftigkeit der Lebensvorgänge. Das Ausmaß dieses Abweichens bestimmt, ob es sich um Krankheit handelt oder nicht. Das Ausmaß ist ein abstrakter geistiger Wert. Lebensvorgänge sind Prozesse, denn in einem biologischen System, auf das sich der jeweilige Lebensvorgang bezieht, wird Materie, Energie oder Information umgeformt, transportiert oder gespeichert. Wenn es bei einem der Systemelemente zu Abweichungen kommt, dann kann das als Krankheit gelten. Weil Lebensvorgänge Prozesse sind, sehe ich Krankheit ebenfalls als einen Prozess. Da in Prozessen regelmäßig Information umgeformt, transportiert oder gespeichert wird, liegt in der Beobachtung und Einordnung der sich verändernden Information einer der Schlüssel zum tieferen Verständnis für das Wesen der Krankheit. Wie Information sich auf den Krankheitsprozess auswirkt, werde ich in einem meiner nächsten Beiträge untersuchen. – Klaus-Dieter Sedlacek

Buchtipps:

 

Intelligente Roboter: Horror oder Segen?

Heidelberg. Roboter – das sind doch diese geschwätzigen, blinkenden Blechdosen? Oder tumbe Maschinenmenschen, die nichts können, als mit sehr eckigen Bewegungen dem in sie einprogrammierten Killerbefehl zu folgen? Oder – außerhalb des Kinos – diese überaus beweglichen Geräte, die in der Autoproduktion schwere Arbeiten mit größter Präzision verrichten, aber statt eines Kotflügels mit Gleichmut auch einen Menschen lackieren oder anschweißen würden, der ihnen versehentlich in die Finger gerät?

Alles falsch. Die modernen Roboter sind überaus feinfühlig und krümmen niemandem ein Haar, es sei denn, das wäre ihre Aufgabe; denn sie haben einen perfekten Überblick über ihre Umgebung. So beschreibt es Gerd Hirzinger in einem umfangreichen Artikel in “Spektrum der Wissenschaft” – und er muss es wissen: Hirzinger war 20 Jahre lang Chef des Instituts für Robotik und Mechatronik in Oberpfaffenhofen, das seinerseits zum Deutschen Zentrum für Luft- und Raumfahrt (DLR) gehört.

Aus seinem Institut stammen so erstaunliche Entwicklungen wie das System MiroSurge, das in der minimal-invasiven Chirurgie die Instrumente präziser und zitterfreier führt, als der Arzt selbst es könnte. Der wiederum bewegt anstelle der Instrumente Handgriffe zur Fernsteuerung – aber die lassen ihn den Widerstand spüren, den das Gewebe auf die echten Instrumente ausübt. Zugleich sieht er auf dem großen Bildschirm, was die Mikrokamera vom Operationsfeld zeigt, und wird damit eingebettet in eine virtuelle Realität, in der er besser sehen und arbeiten kann als in der echten.

Die Roboter aus Hirzingers Werkstatt haben einen menschenähnlichen Oberkörper, und die neuesten Modelle können sogar auf zwei Beinen laufen. Wichtiger noch: Alle ihre “Muskeln” und “Gelenke” sind drehmomentgesteuert. Jede Bewegung wird wie beim Menschen von einem Paar antagonistischer (gegeneinander arbeitender) Muskeln ausgeführt und zugleich die dabei ausgeübte Kraft – genauer: das Drehmoment – gemessen. Dadurch kann der Roboter seine Kräfte so präzise dosieren, dass er ein rohes Ei oder eine gefüllte Kaffeetasse heil von A nach B bringt; und er lässt sich von einem erfahrenen Menschen die Hände führen und lernt dadurch diese Bewegung.

In der Autofabrik muss man ihn nicht mehr in den früher üblichen Käfig stecken; denn aus den beiden Digitalkameras in seinen “Augen” errechnet er in Echtzeit ein räumliches Bild seiner Umgebung und vermeidet mit dessen Hilfe jede Kollision.

Dieselbe Technik verhilft auch einem Elektroauto namens “ROboMObil”, sich ohne Fahrer unfallfrei durch den Verkehr zu bewegen; diesmal mit 18 rundum verteilten Kameras. Und von dort bis zum autonomen unbemannten Fluggerät – Flugzeug, Hubschrauber oder “Quadrocopter” (Rahmen mit vier Propellern) – ist es nicht mehr weit. Ein unter dem Hubschrauber montierter Greifarm liefert Lebensmittel und Verbandszeug an in Not geratene Bergsteiger oder repariert sogar eine Hochspannungsleitung.

Natürlich haben die Robotiker vom DLR derart komplexe Systeme nicht von Grund auf neu entworfen. Es gab einfachere Vorläufer, und deren Arbeitsplatz war – der Weltraum. Dringender als auf der Erde ist dort der Bedarf nach einem “Monteur”, der nicht essen oder atmen muss und dem extreme Hitze oder Kälte nicht viel ausmacht. Aber einigermaßen selbstständig arbeiten muss er schon können, vor allem auf dem Mars. Wenn ein Funksignal hin und zurück eine Viertelstunde unterwegs ist, würde eine Fernsteuerung von der Erde aus eine sehr zähe Veranstaltung.

Für den Einsatz im Weltraum haben die Techniker gelernt, jedes Gramm Gewicht einzusparen – die Kosten für den Transport per Rakete sind immens. Diese Erfahrungen machen sich nun auf der Erde bezahlt. Je leichter der Arm ist, desto eleganter kann der Roboter ihn schwingen. “Aber die Roboter nehmen uns doch die Arbeitsplätze weg!”
Gegen diesen häufig geäußerten Einwand weiß Hirzinger ein schlichtes Gegenargument anzuführen: Der Automobilindustrie, die massiv die mechanischen Helfer einsetzt, geht es hierzulande noch ganz gut, während die Unterhaltungselektronik-Industrie, die solches nie ernsthaft versucht hat, inzwischen fast vollständig nach Fernost abgewandert ist.

Und die Horrorszenarien aus der Science-Fiction, in denen die Roboter dank ihrer überlegenen Körperkraft und Intelligenz die Weltherrschaft übernehmen? Die sind so weit entfernt, dass es darüber nicht nachzudenken lohnt. Oft genügt ein geringfügiger Wechsel der Umgebungsbeleuchtung, um einen Roboter aus dem Konzept zu bringen. (Quelle: Spektrum der Wissenschaft, Oktober 2013)

Buchtipp:
Synthetisches Bewusstsein: Wie Bewusstsein funktioniert und Roboter damit ausgestattet werden können

Künstliche Fotosynthese: Lösung aller Energieprobleme?

Heidelberg. Die Sonne ist eine unerschöpfliche und zudem saubere Energiequelle. Fotovoltaikanlagen und Solarthermiekraftwerke zapfen sie bereits an und gewinnen aus Sonnenlicht Strom. Der ist jedoch nur sehr begrenzt speicherbar und muss sofort verbraucht werden. Sein Transport über weite Strecken ist zudem mit großen Verlusten verbunden. Nur über den Umweg der Wasserelektrolyse lässt sich elektrischer Strom in den breiter einsetzbaren Energieträger Wasserstoff umwandeln, was aber sehr ineffektiv ist.

Eine wesentlich elegantere Lösung macht uns die Natur seit jeher vor: die Fotosynthese. Dabei erzeugen Pflanzen, Algen und gewisse Bakterien mit Hilfe von Sonnenlicht aus Kohlendioxid und Wasser direkt energiereiche Zuckermoleküle. Schon seit einiger Zeit versuchen Forscher deshalb, den Vorgang künstlich nachzuahmen. Dabei geht es ihnen vor allem um den ersten Schritt der Fotosynthese: die Spaltung von Wasser in Wasserstoff und Sauerstoff.

Die bisher erzielten Erfolge sind beachtlich. So präsentierte Daniel Nocera vom Massachussetts Institute of Technology vor zwei Jahren ein “künstliches Blatt”. Es besteht aus einer Solarzelle, in der auftreffendes Sonnenlicht freie Elektronen und “Löcher” (Elektronenfehlstellen) erzeugt. Die dem Licht zugewandte Seite ist mit einem cobalthaltigen Katalysator beschichtet, der mit Hilfe der Löcher aus Wasser Sauerstoff freisetzt. Die zurückbleibenden Protonen wandern zur anderen Seite und werden dort von einer Legierung aus Nickel, Molybdän und Zink mit Hilfe der Elektronen zu Wasserstoff reduziert. Der Wirkungsgrad liegt mit 2,5 bis 4,7 Prozent – je nach genauer Konfiguration – schon recht hoch. Pflanzen verwerten das auftreffende Sonnenlicht sogar nur zu 0,3 Prozent.

Allerdings ist dieses “Blatt” wegen der enthaltenen Metalle noch ziemlich teuer und auch nicht lange beständig. Markus Antonietti vom Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Golm hat sich deshalb auf ein anderes Material verlegt, das nicht nur sehr stabil, sondern auch einfach und preiswert herstellbar ist: graphitisches Kohlenstoffnitrid. Schon Justus Liebig kannte die Substanz im 19. Jahrhundert. Sie ist entfernt mit dem Chlorophyll des Blattgrüns verwandt und ähnelt stark dem Graphen – einer maschendrahtartigen Anordnung von Kohlenstoffatomen, der viele eine große Zukunft in der Elektronik vorhersagen.

Kohlenstoffnitrid als solches ist allerdings nicht sehr aktiv, was unter anderem an seinem zu geringen Verhältnis von Oberfläche zu Volumen liegt. Wie Antonietti in Spektrum der Wissenschaft berichtet, konnte seine Gruppe aber bereits eine Steigerung um das Zehnfache erreichen, indem sie gezielt die Porosität des Materials erhöhte.

Eine weitere Verbesserung ließ sich durch Dotieren mit Schwefel oder Barbitursäure erreichen. Auf diese Weise konnten die Forscher die Quantenausbeute der Oxidation von Wasser zu Protonen und Sauerstoff für violette Strahlung einer Wellenlänge von 440 Nanometern immerhin auf 5,7 Prozent steigern. Hilfreich war auch die Zugabe von Nanoteilchen aus Cobaltoxid. Dadurch erhöhte sich die Quantenausbeute für die Wasserspaltung insgesamt auf 1,1 Prozent.

Alles in allem sehen die bisherigen Ergebnisse also ermutigend aus. Zwar veranschlagt Antonietti bis zur praktischen Einsatzreife seines Systems noch mindestens 20 Jahre. Doch die Aussichten wären verlockend. Wenn sich mit künstlichen Fotosynthesesystemen 10 Prozent der Solarenergie nutzen ließen, müssten sie nur 0,16 Prozent der Erdoberfläche bedecken, um den für 2030 vorausgesagten globalen Energiebedarf von 20 Terawattstunden zu decken. Als Standorte kämen dabei in erster Linie Wüsten in Frage, wo die Sonne fast immer scheint und keine Konkurrenz zu Agrarnutzflächen besteht. Ein Zehntel der Sahara, die 1,76 Prozent der Erdoberfläche einnimmt, würde bereits genügen.

Wie heutige Solarzellen ließen sich künstliche Fotosynthesesysteme aber auch auf Dächern installieren. Bei einer Lichtausbeute von 10 Prozent könnten sie beispielsweise 300 Tonnen Methanol pro Hektar und Jahr liefern. “Wären nur 100 Quadratmeter des eigenen Grundstücks damit bedeckt, bräuchte selbst ein leidenschaftlicher Autofahrer bei heutigem Treibstoffverbrauch nie mehr zur Tankstelle”, erklärt Antonietti.  (Quelle: Spektrum der Wissenschaft, September 2013)

Die produktivsten Erfinder, Schriftsteller und Gelehrten aller Zeiten

Zeichnung von Leonardo da Vinci:  Helicopter und Flügel
Zeichnung von Leonardo da Vinci: Helicopter und Flügel


Leonardo da Vinci, der nach neuer Wertung »nebenher Maler und Bildhauer« war, im Hauptberuf aber Ingenieur, Physiker und Erfinder, ist auch den fruchtbarsten Schriftstellern aller Zeiten zuzurechnen.

Die Gesamtzahl seiner Buchwerke beträgt 120; viele davon sind untergegangen und teilen das Vergänglichkeitslos seiner Bildhauerarbeiten. Aber die Zahl der von Leonardo herrührenden Blätter mit Abhandlungen, Entwürfen und Berechnungen, soweit sie noch heute erhalten sind, geht immer noch in die Tausende!

Raimundus Lullus, (geboren 1235), Urheber der »Ars magna Lulli«, der man ehedem in der philosophischen Welt eine gewisse Bedeutung beimaß, betätigte sich als einer der kräftigsten Vielschreiber. Die Mindestzahl der von ihm herrührenden Schriften theologischen, philosophischen und alchimistischen Inhalts beträgt 500. Nach andern Quellen hat des Lullus Produktivität das Riesenmaß von 4000 Schriften erreicht.

Die Produktion des spanischen Dichters Lope de Vega ist in ihrer Üppigkeit weit über die Grenzen seiner Heimat sprichwörtlich geworden. Seiner eigenen Rechnung zufolge hat er bis zum Jahre 1631 weit über 1500 Komödien und 400 kleinere Bühnenspiele verfasst Ungefähr 500 davon sind erhalten, während die Mehrzahl verloren ging. Dazu kommt bei dem nämlichen Autor eine enorme Menge von Schriften erzählenden, lyrischen und didaktischen Inhalts, die in einer Madrider Ausgabe 21 weitere Bände füllten.

Auch Vegas genialer Landsmann Calderon hat mit seinen Gaben nicht gekargt. Er erreichte und überschritt mit seinen dramatischen Werken die Zahl 200.

Honoré de Balzac brachte es in seinem arbeitsreichen Leben bis auf 90 Romane und Novellen, die zusammen eine Bibliothek von 120 Bänden ausmachen.

Die Produktivität des älteren Alexandre Dumas wird von Eduard Engel in seiner Geschichte der französischen Literatur drastisch gekennzeichnet: Man hat berechnet, dass Dumas mehr als dreimal so viel zusammengeschrieben hat als Voltaire, dessen sämtliche Werke etwa hundert Bände umfassen. Scherzhaft wurde gesagt, aber man könnte es ebenso wohl im Ernst aussprechen: Niemand habe Dumas’ sämtliche Werke gelesen, nicht einmal – Dumas selber. Es gibt eine gut beglaubigte Anekdote, dass Dumas von einem der Romane, die seinen Namen trugen, unbefangen sagte: »Je l’ai signé, mais je ne l’ai pas lu.« Der Katalog seines Verlegers Lévy weist genau 300 Bände von Dumas dem Älteren aus, und dieser Katalog ist unvollständig!

Von den Gelehrten behauptet der große Mathematiker Leonhard Euler den Gipfel der Unbegreiflichkeit. Ihn feiert M. Cantors Monumentalwerk der Geschichte der Mathematik: „Man wird kaum ein Gebiet der reinen und angewandten Mathematik nennen können, in welchem Euler nicht tätig war, und Tätigkeit hieß bei ihm bahnbrechender Erfolg. Eine Gesamtausgabe alles dessen, was Euler geschrieben hat, würde mindestens 2000 Druckbogen stark werden.” Also nach der Größe gemessen mehr als 30 Bände größten Lexikonformats, worin Zeile auf Zeile die schwierigsten Probleme mit dem Maximum des Scharfsinns behandelt werden!

Auch unser Alexander von Humboldt kann sich in der Reihe der Hochproduzenten sehen lassen. Es genüge der Hinweis auf eine Notiz des Professors Leunis, der vom Jahre 1856 lakonisch meldet: »Humboldts sämtliche Werke kosten an 3000 Taler!« Das ist nach heutigem Wert mehr als 1 Million Euro.

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Eine der wichtigsten naturwissenschaftlichen Erkenntnisse

Julius_Robert_Meyer
Julius_Robert_Meyer

Eine der wichtigsten naturwissenschaftlichen Erkenntnisse, die unsere gesamte Anschauung über das Wesen der Natur grundlegend beeinflusst hat, verdanken wir einem einfachen Arzt.

Der Vorgang ist deshalb noch besonders interessant, weil die tiefe Erkenntnis einem Menschen ganz plötzlich gelang, der bis dahin auch nicht das Geringste geleistet hatte, bei dem nichts auf eine besondere Befähigung hinwies, und der auch nicht zum zweiten Mal hervorgetreten ist.

Julius Robert Mayer wurde am 25. November 1814 als dritter Sohn eines Apothekers in Heilbronn geboren. Auf der Schule hat der Knabe sehr schlechte Leistungen aufzuweisen gehabt. Auch seine Doktordissertation über das damals gerade gefundene Santonin lässt in keiner Weise einen hervorragenden Denker oder Forscher erkennen. 1840 trat Mayer als Schiffsarzt in niederländische Dienste, um nach Java zu fahren. Der Inhalt des uns erhaltenen Tagebuchs dieser Reise ist durchaus belanglos.

Aber auf der Reede von Surabaya ging ihm durch eine an sich ganz nebensächliche Beobachtung plötzlich eine Gedankenreihe auf, die zu der grundlegenden Erkenntnis führte, dass Wärme und mechanische Arbeit miteinander verwandt seien, dass die eine sich in die andere umwandeln könne. Nach seiner Rückkehr fasste er am 16. Juni 1841 das von ihm entdeckte Gesetz von der Erhaltung der Kraft in einer kleinen Abhandlung zusammen, die er der damals bedeutendsten wissenschaftlich-physikalischen Zeitschrift, den »Poggendorff’schen Annalen« einsandte. Poggendorff erkannte den Wert der Arbeit nicht und schickte sie zurück. Man kann ihm daraus keinen allzu großen Vorwurf machen, da Mayer selbst seine Gedankenreihe sehr mangelhaft begründet hatte, wie es denn überhaupt scheint, dass er selbst die ganze epochale Bedeutung seiner Erkenntnis niemals ganz erfasst hat.

So ist es Julius Robert Mayer zu Lebzeiten denn auch niemals gelungen, sich durchzusetzen, und zahllose Gegner machten ihm so viel zu schaffen, dass er zwei Selbstmordversuche unternahm und 1878 verbittert starb. Dennoch steht fest, dass er als Erster das große Gesetz von der mechanischen Wärmeäquivalenz erkannt hat; nachdem es von Joule und namentlich von Helmholtz fester fundamentiert worden war, hat es auf die ganze Physik bedeutsamsten Einfluss gewonnen.

(Quelle: Moszkowski: 1000 Wunder; Wilhelm Ostwald: »Große Männer«. Akademische Verlagsgesellschaft m.b.H., Leipzig, 1909.)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Meerwasserentsalzung: Neue energiesparende Technik entwickelt

Eine neue Methode zur Entsalzung von Meerwasser wird von einem amerikanisch-deutschen Team in der Zeitschrift Angewandte Chemie vorgestellt. Anders als herkömmliche Verfahren schluckt diese Methode wenig Energie und ist sehr einfach. Diese „elektrochemisch vermittelte Meerwasserentsalzung“ basiert auf einem Mikrokanalsystem und einer bipolaren Elektrode.

Die Vereinten Nationen schätzen, dass bereits ein Drittel der Weltbevölkerung in wasserarmen Gegenden lebt, bis 2025 soll sich diese Zahl verdoppeln. An Salzwasser herrscht dagegen kein Mangel. Eine naheliegende Lösung ist daher, Meerwasser zu entsalzen. Allerdings ist das gar nicht so einfach. Verfahren wie die Verdampfung und anschließende Kondensation des Wassers verbrauchen enorme Mengen an Energie. Die Umkehrosmose benötigt darüber hinaus teure, empfindliche Membranen, die leicht verkeimen, und aufwendige Vorbehandlungsschritte.

Der von Richard M. Crooks (University of Texas at Austin), Ulrich Tallarek (Universität Marburg) und ihren Kollegen mit Unterstützung des US-Energieministeriums entwickelte elektrochemische Ansatz kommt dagegen ohne Membran und hohe Energiemengen aus. Die Forscher drücken das Meerwasser durch ein System aus zwei Mikrokanälen von je 22 µm Breite, einem „Hilfskanal“ und einem verzweigten Arbeitskanal, sodass ein Fluss in Richtung der Auslassöffnungen entsteht. Die beiden Kanälchen sind elektrisch über eine bipolare Elektrode verbunden. Der Hilfskanal wird an eine Spannungsquelle angeschlossen, der Arbeitskanal geerdet und eine Potentialdifferenz von 3.0 V zwischen den Kanälen eingestellt.

Entscheidend ist der Aufbau des Kanalsystems: Die Elektrode ragt in die Verzweigungsstelle des Arbeitskanals. Aufgrund der Spannung wird ein Teil der negativ geladenen Chloridionen des Meerwassers an diesem Ende der Elektrode zu neutralem Chlor oxidiert. In dem feinen Kanalsystem entsteht dadurch an der Stelle der Abzweigung eine Zone, die an negativ geladenen Ionen verarmt ist, und als Folge ein elektrischer Feldgradient, der die positiv geladenen Ionen des Meerwassers in den abzweigenden Kanal dirigiert. Da aus physikalischen Gründen aber die Elektroneutralität innerhalb des Mikrokanals gewahrt bleiben muss, wandern auch die Anionen mit in die Abzweigung. Im abzweigenden Kanälchen entsteht so ein mit Salz angereicherter Strom, während in der Weiterführung des Arbeitskanälchens teilentsalztes Wasser fließt.

Die für die neue Technik benötigte Energiemenge ist so gering, dass das System mit einer einfachen Batterie arbeiten kann. Anders als bei der Umkehrosmose sind lediglich Sand und Schmutz aus dem Meerwasser zu entfernen, weitere Vorbehandlungsschritte, eine Desinfektion oder Zugabe von Chemikalien sind nicht erforderlich. Durch einfache Parallelschaltung vieler Mikrokanalsysteme kann der Wasserdurchsatz entsprechend erhöht werden. (Quelle: idw).

Technologischer Durchbruch: Riesige Stromspeicher für Wind- und Sonnenenergie

Forschern von Fraunhofer UMSICHT ist es durch ein neues Design gelungen, die Größe und Leistungsfähigkeit der Batteriestacks zu erhöhen. © Fraunhofer UMSICHT

Sonne und Wind liefern immer mehr Strom – allerdings unregelmäßig. Leistungsfähige elektrische Energiespeicher sollen das künftig ausgleichen. Fraunhofer-Forschern ist nun ein wichtiger Durchbruch gelungen: Sie haben eine Redox-Flow-Batterie mit einer Zellgröße von 0,5 Quadratmeter entwickelt. Das ist achtmal größer als die bisherigen Systeme und entspricht einer Leistung von 25 kW. Auf der Hannover Messe stellen sie den neuartigen Stromspeicher erstmals vor (8. bis 12. April).

Sonne und Wind sind wichtige Energielieferanten. Schon heute stammt fast ein Viertel unseres Stroms aus erneuerbaren Quellen. Bis 2050 soll der Bedarf sogar komplett mit Strom aus Sonne, Wind, Biomasse und Co. gedeckt werden, so das Ziel der Bundesregierung. Doch damit die Energiewende gelingt, müssen die wachsenden Mengen an Solar- und Windstrom für nachts oder windschwache Zeiten gespeichert werden – etwa in elektrischen Akkus. Redox-Flow-Batterien bieten eine gute Möglichkeit, um die Schwankungen bei erneuerbaren Energien auszugleichen und eine stetige Versorgung zu sichern. Sie speichern elektrische Energie in chemischen Verbindungen, den flüssigen Elektrolyten. Redox-Flow-Batterien bieten einige Vorteile: Sie sind kostengünstig, robust, langlebig und lassen sich individuell anpassen. Die Ladung und Entladung der Elektrolyten findet dabei in kleinen Reaktionskammern statt. Mehrere dieser Zellen werden nebeneinander zu Stapeln, Stacks, aufgereiht. Doch bislang liefern die auf dem Markt verfügbaren Batterien nur eine Leistung von 2,3 Kilowatt (kW).

Erste Präsentation auf der Hannover Messe

Forscher des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT in Oberhausen konnten nun die Größe der Stacks und damit die Leistungsfähigkeit deutlich erhöhen. Dank eines neuen Designs ist es ihnen gelungen, Stacks mit 0,5 Quadratmeter Zellgröße zu fertigen. Das ist achtmal größer als die bisherigen Systeme und entspricht einer Leistung von 25 kW. Diese Batterie präsentieren die Wissenschaftler auf der Hannover Messe. Der Prototyp verfügt über einen Wirkungsgrad von bis zu 80 Prozent.

Am Institut in Oberhausen steht für die Forschungsarbeiten eines der größten Testlabore für Redox-Flow-Batterien europaweit zur Verfügung. »Uns ist mit dem Redesign des Batterie-Stacks ein sehr wichtiger Schritt gelungen auf dem Weg, Redox-Flow-Batterien zu entwickeln, die zum Beispiel 2000 Haushalte mit Strom versorgen können«, sagt Dr. Christian Dötsch, der den Bereich Energie am Fraunhofer UMSICHT leitet. Dazu wären etwa zwei Megawatt Leistung nötig. Als nächstes konkretes Ziel stehe daher zunächst die Entwicklung eines Stacks in der Größe von zwei Quadratmetern und einer Leistung von 100 kW auf der Agenda.