Schlagwort-Archive: Biologie

Gen für das Gefühlsleben von Pflanzen entdeckt

Pflanzen zu drücken oder zu streicheln ist eine jahrhundertealte Methode im japanischen Landbau. Die mechanische Stressbehandlung erhöht die Widerstandsfähigkeit der Pflanzen und steigert damit auch den Ertrag, führt aber auch zu gedrungenem Wachstum und verzögertem Blühen. Verantwortlich dafür ist ein Gen, das nun von Dr. Maria Pimenta Lange und Prof. Theo Lange vom Institut für Pflanzenbiologie der Technischen Universität Braunschweig entdeckt wurde.

Die positive Auswirkung mechanischer Stressbehandlung von Pflanzen wurde erst vor wenigen Jahren in den westlichen Industrienationen bekannt. Bis dahin ging die Forschung davon aus, dass sich die sogenannte Thigmomorphogenese vor allem durch gedrungenes Wachstum und verzögertes Blühen auf Pflanzen auswirke, erläutert Prof. Theo Lange. Forschungsergebnisse aus den USA und der Schweiz wiesen in den vergangenen Jahren auch auf nützliche Effekte hin, wie etwa eine bessere Schädlingsabwehr, jedoch ohne den Wirkmechanismus aufzuklären, so der Braunschweiger Pflanzenbiologe.

Gemeinsam mit Dr. Maria Pimenta Lange ist es dem Leiter der Abteilung Biochemie und Physiologie der Pflanzen am Institut für Pflanzenbiologie der TU Braunschweig nun gelungen, das Gen zu identifizieren, das für die Berührungsreaktion von Pflanzen verantwortlich ist. Das Gen „AtGA2ox7“ kodiert ein Protein, das für den Abbau eines bestimmten Pflanzenhormons, den Gibberellinen, zuständig ist. Ohne dieses Gen, so die aktuellen Forschungsergebnisse der Braunschweiger Pflanzenbiologen, reagiere die Pflanze auf den Berührungsreiz nicht mehr mit morphologischen Veränderungen und wachse wie eine unbeeinflusste Vergleichspflanze.

In den kommenden Monaten setzt das Braunschweiger Forscherteam seine Arbeit fort und untersucht, inwieweit in genveränderten Pflanzen nach einer Berührung gewünschte Eigenschaften, wie gesteigerte Stressresistenz, erhalten geblieben sind. Auch soll untersucht werden, wie das identifizierte Gen als Marker beispielsweise in Züchtungsprogrammen eingesetzt werden kann. „Langfristig bietet unsere Grundlagenforschung die Möglichkeit, die jahrhundertealte japanische Methode als Anwendung im ökologischen Landbau weiterzuentwickeln und nachteilige Auswirkungen mit Mitteln der Biotechnologie zu lindern“, erklärt Prof. Lange. (Quelle: idw)

Zur Publikation
Maria João Pimenta Lange, Theo Lange: Touch-induced changes in Arabidopsis morphology dependent on gibberellin breakdown. Nature Plants, doi: 10.1038/nplants.2014.25 (2015).

Merken

Komponenten des Lebens und ihre Funktion

Die Biophysik bildet die Brücke zwischen der Physik und den Lebenswissenschaften. Sie ist eng mit der Physik Weicher Materie und Komplexer Systeme verknüpft und viele Fragestellungen sind Bestandteil der Statistischen Physik geworden. Dabei verfolgt die Biophysik mehrere Stoßrichtungen.

Die eine versucht, Methoden zu entwickeln, um die Architektur biologischer Materialien von molekularen bis makroskopischen Skalen zu untersuchen und ihre physikalischen Eigenschaften unter möglichst natürlichen Bedingungen zu messen – in „vivo“, sagt der Biologe. Entdeckungsfreudige Physiker finden eine breite Spielwiese, um mit einfachen Methoden wie optischen und magnetischen Pinzetten oder einer Glaspipette, gepaart mit einem guten Mikroskop, die physikalischen Eigenschaften der Zellen zu studieren.

Dreidimensionale Darstellung der Struktur des Proteins GGA1.
Struktur eines Proteins

Große Maschinen hingegen sind notwendig, um die Struktur und Dynamik biologischer Materialien mittels Neutronen- und Röntgenbeugung zu erforschen. Moderne Methoden der Röntgenbeugung mit fokussierten Strahlen eröffnen dabei auch völlig neue Einblicke in die molekulare Architektur von Gewebe, Knochen oder Holz. Zudem verspricht die Entwicklung der Spallations-Neutronenquellen und des Freien Elektronenlasers neue Einsichten in die molekulare Basis des molekularen Erkennens zwischen Proteinen und DNS oder die physikalischen Grundlagen der Proteinfaltung.

Biologie als Vorbild

Eine zweite Forschungsrichtung ist die von der Biologie inspirierte Physik. Sie versucht möglichst realistische Modelle lebender Materie – wie Membranen, Gewebe oder Knochen – aufzubauen, um spezifische biologische Prozesse zu imitieren. Solche Modelle spielen eine wichtige Rolle, um etwa die Verlässlichkeit neuer physikalischer Methoden zu testen oder um nach den wesentlichen physikalischen Parametern zu suchen, welche das biologische Verhalten eines Systems bestimmen.

Parallele Untersuchungen natürlicher Systeme und von Modellen helfen auch, Bezüge zur Physik Kondensierter Materie herzustellen. Im Hintergrund steht der Gedanke, die Strategie der biologischen Selbstorganisation zur Herstellung neuartiger smarter Materialien einzusetzen. Beispiele dieses Bionik genannten Gebietes sind Materialien, die ihre Eigenschaften an wechselnde Umgebungsbedingungen anpassen können, wie selbst reinigende Oberflächen oder bruchfeste Keramiken, wie sie in Prozessen der Biomineralisierung entstehen.

Im Grenzbereich zwischen Physik und Technik sind Bemühungen angesiedelt, Methoden der Navigation in der Tierwelt zu imitieren. Beispielsweise inspirierte die Echoortung der Fledermaus die Radartechniker zum Bau des Zirp-Radars. Auch beim Bau von Robotern lässt man sich gern von der Biologie inspirieren: Zahlreiche Arbeitsgruppen versuchen, die Fähigkeit der Insekten und Salamander des Hochlaufens an Wänden zu imitieren. Roboter zum Fensterputzen wären eine passende Umsetzung des Prinzips.

Ein anderer zukunftsträchtiger Zweig der angewandten Biologischen Physik ist der Bau von Biosensoren durch den Aufbau von Enzymsystemen, Biomembranen oder Nervenzellen auf elektro-optischen Bauelementen. Ein Beispiel sind zweidimensionale Anordnungen von Punkt-Transistoren, die als Nano-Voltmeter fungieren. Hier sitzen auch zahlreiche Querverbindungen zur Nanotechnik oder Mikrooptik, denn die dort entwickelten Methoden eröffnen neue Möglichkeiten zur Messung physikalischer Eigenschaften der Zellen in natürlicher Umgebung.

Komplexe Wechselwirkungen erfassen

Dargestellt ist eine Nervenzelle mit Axonen.
Neuron

Auf fundamentalere Fragen der Biologie zielt die oft als Systembiophysik bezeichnete Erforschung der Regulation biologischer Prozesse durch das Wechselspiel zwischen biochemischen und genetischen Signalkaskaden, der dadurch bedingten Modifikation der Materialeigenschaften und der biologischen Funktion. Hier arbeiten Physiker, Mathematiker und Ingenieure miteinander. Eine besonders faszinierende Fragestellung dieser Kategorie ist die Entwicklung vom befruchteten Ei zum Embryo, oft Morphogenese genannt. Was steuert die Differenzierung der zunächst völlig identisch erscheinenden Zellen des befruchteten Eis in Neuronen oder Muskelzellen und was legt den Zeitplan der embryonalen Entwicklung fest? Ist dies alles im genetischen Code vorbestimmt oder bestimmt die Kopplung zwischen externen äußeren Kräften – wie chemischen Potentialen oder mechanischen Kräften – und dem genetischen Apparat den Prozess der Morphogenese?

Alan Turing, der geistige Vater des Programmierens, lehrte erstmals, wie raum-zeitliche Muster, etwa von Signalmolekülen, die dann die Entwicklung von Organen steuern, allein durch das Zusammenspiel chemischer Potenziale und autokatalytischer Prozesse entstehen können. Zwar ist die Entwicklung vom befruchteten Ei zum ausgewachsenen Lebewesen vor allem durch die zeitliche Folge der Gen-Expression bestimmt, doch zeigt sich auch immer mehr, dass die Zell-Zell-Erkennung und insbesondere mechanische Kräfte die Differenzierung und räumliche Organisation der Zellen steuern können. Die Aufklärung des Wechselspiels zwischen Morphogenese und der Physik der Zelle ist eine besonders reizvolle Aufgabe für Experimentatoren und Theoretiker.

Immer mehr Physiker finden außerdem Interesse an der Hirnforschung und versuchen zu verstehen, wie das Gehirn die Umwelt wahrnimmt. Ein Meilenstein auf dem Weg zur quantitativen Hirnforschung war die Entdeckung, dass optische Muster, die auf die Netzhaut der Augen projiziert werden, im visuellen Cortex als Erregungsmuster abgebildet werden. Diese Experimente brachten der Physik neuronaler Netzwerke einen enormen Aufschwung. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)

Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Primäres Bewusstsein bei Mikroben entdeckt

Prokaryoten umfassen die Bakterien und Archaeen, also die einfachsten und frühesten Lebewesen, die wir kennen. Es sind Mikroben ohne Zellkern, die aber ein Chromosom besitzen, mit dessen Hilfe sie sich fortpflanzen. Im Rahmen der Bewusstseinsforschung stellt sich die Frage, ab welcher Stufe der Evolution sich ein rudimentäres Bewusstsein zeigt. Durch raffinierte Tests hat man vor einigen Jahren herausgefunden, dass Schimpansen, Elefanten oder Raben Bewusstsein zeigen. Nun kann man aber auch primäres Bewusstsein bei Prokaryoten nachweisen.

Primäres Bewusstsein ist eine einfache Bewusstseinsform, die etwa mit den Funktionen eines Unterbewusstseins vergleichbar ist. Es beinhaltet nicht das Selbst- oder Ich-Bewusstsein, das wir von uns Menschen kennen. Bewusstsein ist ein informationsverarbeitender Prozess und dient einem Lebewesen dazu, sich auf neue Anforderungen oder geänderte äußere Umstände einzustellen. Wenn das Lebewesen zwischen möglichen Handlungsalternativen auf nicht determinierte Weise entscheidet und die Entscheidung zur Befriedigung seiner Bedürfnisse dient, dann kann man zumindest von primärem Bewusstsein ausgehen (zur Definition von Bewusstsein siehe: Klaus-Dieter Sedlacek, „Der Widerhall des Urknalls“, Norderstedt 2012, S. 148). Andererseits kann man nicht von primärem Bewusstsein ausgehen, wenn Handlungen ausschließlich eine automatische Reaktion auf Umweltreize sind und keinerlei Entscheidungen zwischen Alternativen erkennen lassen.

Prokaryoten haben Geißeln, um sich schwimmend fortbewegen zu können. Die Beweglichkeit kann ihnen nur nützen, wenn sie erkennen, wohin sie schwimmen sollen. Aus ihrer Orientierungsreaktion (Taxis), das heißt, ihrer Ausrichtung nach einem Reiz oder einem Umweltfaktor lassen sich Rückschlüsse auf jenen informationsverarbeitenden Prozess ziehen, der eine Voraussetzung für Bewusstsein ist. Man unterscheidet zum Reiz gerichtete Reaktionen und vom Reiz weggerichtete Meide- oder Schreckreaktionen (negative Taxis).

Bei einer Chemotaxis erfolgt beispielsweise die Ausrichtung nach der Konzentration eines Stoffes. Aerotaxis ist die Orientierung zum Sauerstoff. Es handelt sich um eine besondere Form von Chemotaxis oder Energietaxis. Phototaxis ist die Orientierung an der Helligkeit und Farbe des Lichts und Galvanotaxis die Orientierung an elektrischen Feldern um nur ein paar Taxisarten zu nennen. Im Internet findet sich ein kleines Video über das Pantoffeltierchen (Paramecium), wie es sich an einem elektrischen Feld ausrichtet (https://youtu.be/-U9G0Xhp3Iw).

Viele Bakterien können gleichzeitig die Konzentration von Futtersubstanzen, Sauerstoff oder Licht erkennen und sich danach ausrichten. Solange sie z.B. keine Futtersubstanz erkennen, schwimmen sie eine Zeit lang in eine zufällige Richtung und wechseln anschließend die Richtung, um wieder eine Zeit lang in eine andere Richtung weiterzuschwimmen. Bei geringer werdender Konzentration wechseln sie häufig die Richtung, bei zunehmender Konzentration schwimmen sie dagegen zielgerichteter zum Ort der höheren Konzentration. Sie zeigen ein gleiches Verhalten in Bezug auf die Sauerstoffkonzentration und auf Licht (vgl. Cypionka, „Grundlagen der Mikrobiologie“, 3. Aufl., Springer 2006, S. 33f.)

Aus dem Verhalten kann man ableiten, dass die Bakterien zeitlich auflösen können, ob die Konzentration geringer oder stärker wird. Sie können also Änderungen in den Umweltbedingungen feststellen, indem sie einen vorherigen Zustand auf irgendeine Weise speichern. Schon allein dadurch erkennt man das Vorhandensein eines informationsverarbeitenden Prozesses. Die Mikroben zeigen zudem ein Bedürfnis (= Neigung ein Ziel zu verfolgen), zum Ort der höheren Futter- oder Sauerstoffkonzentration zu schwimmen.

Es kann aber auch vorkommen, dass zwei unterschiedliche Bedürfnisse nicht miteinander vereinbar sind. Beispielsweise kann die höhere Sauerstoffkonzentration entgegengesetzt vom Ort der höheren Futterkonzentration liegen. Zwischen den beiden Orten, an denen je ein anderes Bedürfnis befriedigt wird, gibt es eine Stelle, an der die Bewertung, welcher Reiz stärker ist, gleich ausfällt. Der Mikrobe muss sich entscheiden, welchem Reiz sie nachgeht, d.h., zu welchem Ort sie schwimmen soll. Die Entscheidung kann nicht determiniert fallen, weil vorausgesetzt wird, dass die Stärke der Reize von der Mikrobe gleich bewertet wird. Wir haben es in diesem Fall mit einer nicht determinierte Entscheidung zwischen Handlungsalternativen zu tun. Es ist die Entscheidung in die eine oder in die andere Richtung zur Befriedigung eines Bedürfnisses zu schwimmen.

Zusammenfassend gilt: Im Verhalten der Mikroben kann man einen informationsverarbeitenden Prozess erkennen, der bei Änderungen der Konzentration verschiedener Stoffe, also der Umweltbedingungen, eine nicht determinierte Entscheidung zwischen Handlungsalternativen trifft, die zum zielgerichteten Verhalten zur Befriedigung von Bedürfnissen führt. Das bedeutet: Mikroben zeigen primäres Bewusstsein. – Klaus-Dieter Sedlacek

Buchtipps:

 

Was ist das Wesen von Raum und Zeit?

Grundfragen der Naturwissenschaft:

Was ist Realität? Warum läuft Zeit immer nur in eine Richtung? Was bedeutet Kausalität, also die eindeutige Zuordnung von Ursache und Wirkung? Antworten auf diese Fragen der modernen Naturphilosophie liefert die Quantenphysik. Aber auch in der Biologie spielt beispielsweise die Frage nach der Kausalität eine grundlegende Rolle.

Allerdings wirft die Frage nach der Kausalität in der Genetik Fragen auf, die sich nur philosophisch beantworten lassen. So fand das Problem, das die Rolle der Gene im Organismus betrifft, erst kürzlich eine befriedigende Lösung. Gene gelten als Informationsträger, die den Aufbau der Proteine in einem Organismus bestimmen. Zur Herstellung von Eiweißstoffen bedarf es jedoch einer äußerst komplexen biochemischen Maschinerie, zu der auch so genannte Ribosome sowie Hunderte von Enzymen gehören.

Deshalb schreibt die Entwicklungssystemtheorie allen Bestandteilen einer lebenden Zelle die gleiche kausale Rolle zu. Diese Ansicht lässt sich rein empirisch (also nur durch Experimente) nicht widerlegen, sondern nur durch philosophische Überlegungen. Die Lösung des Problems gelang durch Unterscheidung zwischen aktuellen und potenziellen Einflussgrößen: Die einen variieren tatsächlich, die anderen könnten es zwar, tun es aber nicht. Zusätzlich ist es nötig, den Begriff der so genannten kausalen Spezifität einzuführen. Sie ist erfüllt, wenn jede Ursache eine eindeutige Wirkung hat und jede Wirkung nicht zu viele verschiedene Ursachen. Mit diesen beiden Begriffen lässt sich die besondere kausale Rolle der Gene bei der Proteinsynthese begründen.

Ein Beispiel betrifft die Ontogenese: die Entwicklung vom Embryo zum ausgewachsenen Organismus. Als Hauptkontrollgene dafür gelten so genannte Homöobox-Gene, die Forscher zuerst bei der Taufliege und später bei vielen anderen Organismen einschließlich des Menschen identifiziert haben. Dabei sind an der Embryonalentwicklung eines Tiers Tausende verschiedener Faktoren beteiligt. Sie beginnt in einer befruchteten Eizelle, die nicht bloß aus Genen besteht, sondern ein chemisch äußerst komplexes Gemisch von diversen Nukleinsäuren, Proteinen, kleineren Molekülen und Fetten ist. Der Einwand “Aber die Gene steuern die Entwicklung” ist aus streng kausaltheoretischer Sicht nicht zulässig; denn “steuern” setzt einen Steuermann voraus – ein absichtlich handelndes Wesen, das es offensichtlich nicht gibt.

Noch tiefer reichen die Fragen in der Physik. Naturphilosophie versucht da nicht weniger als die Grundlagen der Natur zu klären – etwa, was Objekte, Raum und Zeit, Kausalität, Zeitrichtung und Naturgesetze sind. Die Quantenphysik erfordert es, die klassische atomistische Sicht der Natur durch eine holistische Perspektive zu ersetzen. Wie der Übergang von quantenmechanischen Phänomenen zu klassischen Eigenschaften genau abläuft, ist dabei eine offene Frage. (Quelle: Spektrum der Wissenschaft, Juni 2011)

Buchtipp:
Supervereinigung: Wie aus nichts alles entsteht. Ansatz einer großen einheitlichen Feldtheorie

Wie das Tempo der Evolution für Resistenzen sorgt.

Video: Genmutation

Max-Planck-Forscher messen erstmals, wie schnell sich das Erbgut verändert. Ihre Erkenntnisse erklären zum Beispiel, warum Unkrautvernichtungsmittel oft innerhalb weniger Jahre ihre Wirkung verlieren.

Mutationen sind das Rohmaterial der Evolution. Schon Charles Darwin hatte erkannt, dass Evolution nur funktionieren kann, wenn es vererbbare Unterschiede zwischen Individuen gibt: Wer besser an die Umwelt angepasst ist, hat größere Chancen, seine Gene weiterzugeben. Eine Art kann sich daher nur weiterentwickeln, wenn sich das Erbgut permanent durch neue Mutationen verändert und die jeweils vorteilhaftesten Veränderungen in der Selektion bestehen. Wissenschaftler am Max-Planck-Institut für Entwicklungsbiologie in Tübingen haben nun erstmals direkt die Geschwindigkeit des Mutationsprozesses in Pflanzen gemessen. Ihre Erkenntnisse werfen ein neues Licht auf einen grundlegenden Vorgang der Evolution und erklären zum Beispiel, warum Unkrautvernichtungsmittel oft innerhalb weniger Jahre ihre Wirkung verlieren. (Science, 1. Januar 2010)

“Während die langfristigen Auswirkungen von Erbgutmutationen auf die Evolution gut verstanden sind, war bislang weitgehend unbekannt, wie schnell solche Veränderungen auftreten”, erläutert Studienleiter Detlef Weigel, Direktor am Max-Planck-Institut in Tübingen. So ist es gängige Praxis, das Erbgut verwandter Tier- und Pflanzenarten zu vergleichen. Mutationen aber, die in den Jahrmillionen seit der Trennung dieser Arten wieder verlorengegangen sind, bleiben dabei unberücksichtigt. Weigel und seine Mitarbeiter interessierten sich nun dafür, wie die Handschrift der Evolution aussieht, bevor die Selektion eingreift. Hierfür verfolgten sie die genetische Entwicklung von fünf Linien der Ackerschmalwand Arabidopsis thaliana über 30 Generationen hinweg. Im Erbgut der letzten Generation untersuchten sie dann, welche Unterschiede sich im Vergleich mit den Ausgangspflanzen ergeben hatten.

Wie der aufwändige Vergleich des gesamten Genoms ergab, waren in nur wenigen Jahren in jeder der fünf Linien im Durchschnitt 20 einzelne DNA-Bausteine – so genannte Basenpaare – verändert worden. “Die Wahrscheinlichkeit, mit der ein beliebiger Buchstabe des Genoms innerhalb einer Generation verändert wird, liegt demnach bei rund sieben Milliardsteln”, rechnet Detlef Weigel vor. Anders ausgedrückt, hat ein Keimling im Durchschnitt knapp eine Neumutation in jeder der beiden Erbgutkopien, die er jeweils von der mütterlichen und väterlichen Seite mitbekommen hat. Diese winzigen Veränderungen im rund 120 Millionen Basenpaare umfassenden Genom von Arabidopsis zu finden, vergleicht Weigel mit der sprichwörtlichen Suche nach der Nadel im Heuhaufen: “Die Mutationen aufzuspüren, war nur mithilfe neuer Methoden möglich, mit denen sich das komplette Erbgut einer Pflanze in kurzer Zeit erfassen lässt”. Dennoch war der Aufwand für die Experimente gewaltig: Um echte Neumutationen zuverlässig von Experimentierfehlern unterscheiden zu können, buchstabierten die Wissenschaftler jedes untersuchte Genom 30-mal vollständig durch.

Hohe Variabilität des Genoms

Angesichts der Genomgröße mag die Zahl der Neumutationen zunächst sehr gering erscheinen. Berücksichtigt man jedoch, dass dieser Prozess bei allen Individuen einer Art parallel abläuft, dann erweist sich das genetische Material insgesamt als erstaunlich plastisch: In nur 60 Millionen Arabidopsis-Individuen ist jede Position des Genoms im Durchschnitt einmal mutiert. Für eine Art, die Tausende von Samen in jeder Generation produziert, wahrlich keine große Anzahl von Pflänzchen.

Neben der Geschwindigkeit, mit der Neumutationen auftreten, wirft die Tübinger Studie ein neues Licht auf deren Verteilung im Genom. So stellten die Wissenschaftler fest, dass nicht alle möglichen Mutationsklassen gleichmäßig auftreten. Bei vier verschiedenen Arten von Basenpaaren im Genom gibt es sechs Möglichkeiten der Veränderungen – aber eine dieser sechs ist für die Hälfte aller Mutationen verantwortlich. Auch lässt sich nun genauer kalkulieren, wann sich die Entwicklungslinien verschiedener Arten voneinander getrennt haben – gut möglich daher, dass Stammbäume an neue zeitliche Maßstäbe angepasst werden müssen. Detlef Weigel geht anhand der neuen Daten etwa davon aus, dass Arabidopsis thaliana sich von ihrer Schwesterart Arabidopsis lyrata, die in vielen Merkmalen sehr unterschiedlich ist, nicht wie bisher angenommen erst vor fünf Millionen, sondern bereits vor 20 Millionen Jahren getrennt hat. Entsprechende Untersuchungen an anderen Arten könnten ebenfalls Neujustierungen nötig machen – etwa bei der Frage, zu welchem Zeitpunkt in der Ur- und Frühgeschichte verschiedene Haustiere und Ackerpflanzen domestiziert wurden.

Hohe Mutationsrate fördert Resistenzen gegen Herbizide

Auch für die Pflanzenzüchtung ergeben sich neue und Erfolg versprechende Gedankenexperimente. Bei genügend großen Populationen kann davon ausgegangen werden, dass nahezu jede mögliche Mutation im Verlauf einer oder weniger Generationen realisiert wird. Das bedeutet, dass spontan auftretende Mutationen, die den Ertrag steigern oder Pflanzen gegen Dürre unempfindlich machen, vermutlich gar nicht so selten sind, auch wenn das Auffinden geeigneter Veränderungen immer noch sehr aufwändig bleibt. Auf der anderen Seite treffen Herbizide, die auf große Flächen ausgebracht werden, auf eine umfangreiche Population von Unkräutern. Da deren Erbgut mit großer Wahrscheinlichkeit ähnlich wandlungsfreudig ist wie das der Ackerschmalwand, verwundert es nicht, dass Herbizidresistenzen innerhalb von wenigen Jahren auftauchen. “Dieser Effekt ist auch deshalb besonders deutlich ausgeprägt, weil Herbizide oft nur die Funktion eines einzelnen Gens beeinträchtigen”, sagt Detlef Weigel. Ein Ausweg wäre die Suche nach Herbiziden, die auf mehrere Gene wirken.

Die Tübinger Biologen gehen davon aus, dass auch das menschliche Genom einer ähnlich schnellen Veränderung unterworfen ist. “Wenn man unsere Ergebnisse auf den Menschen überträgt, dann finden von einer Generation zur nächsten durchschnittlich 60 Basenaustausche statt”, rechnet Weigel vor. Bei mehr als sechs Milliarden Menschen, die derzeit auf der Erde leben, bedeutet das, rein statistisch betrachtet, dass es für jede Stelle des Erbguts Dutzende von Erdbewohnern gibt, bei denen diese Position mutiert ist. “Alles, was genetisch möglich ist, wird demnach innerhalb recht kurzer Zeit durchgetestet”, resümiert Detlef Weigel und beschreibt damit einen völlig neuen Blick auf die Evolution, der man sonst eher ein Arbeitstempo zuschreibt, das sich in Jahrtausenden oder gar Jahrmillionen bemisst.

Originalpublikation
The rate and molecular spectrum of spontaneous mutations in Arabidopsis thaliana. Science, 1. Januar 2010. (Quelle: idw)

Künstliche Lebewesen aus der Retorte

Die synthetische Biologie ist ein junger Forschungszweig, der sich anschickt, in einer Art zweiter Schöpfung nach vier Milliarden Jahren ein künstliches Lebewesen aus der Retorte zu erschaffen. Forscher wie Tom Knight, Drew Endy und Randy Rettberg (MIT Cambridge, USA) entwerfen nach dem Legoprinzip zunächst modulare biologische Bausteine die sogenannten »BioBricks«. Diese Biobricks erfüllen definierte biologische Aufgaben, analog den elektronischen Schaltkreisen, wie sie in Mikroprozessoren (Computer) zu finden sind.

Biobricks befinden sich in der experimentellen Phase und werden bereits in die »Baupläne des Lebens« von Bakterien eingebaut. In ersten Erfolgen hat die kalifornische Firma LS9 das Darmbakterium Escherichia coli reprogrammiert. Nun erzeugt das Bakterium Biosprit aus Mais-Sirup und Zuckerrohr.

Als Bauplan des Lebens oder DNA bezeichnet man ein in allen Lebewesen vorkommendes Biomolekül, welches die komplette Erbinformation (Genom) trägt. DNA besteht aus zwei parallelen Strängen, die einander schraubenartig umlaufen (Doppelhelix). Die Stränge sind durch Sprossen miteinander verbunden. So eine Sprosse wird als Basenpaar bezeichnet, weil sie aus zwei sich ergänzenden Basen und einer Wasserstoffbrücke gebildet wird. Chemisch gesehen handelt es sich bei der Base um ein Nukleotid, welches zu den vier Gruppen der Biomoleküle gehört. Ein Basenpaar stellt die unterste Informationseinheit der DNA dar und entspricht zwei Bit herkömmlicher Information. Die Abschnitte der DNA, welche die Information über die einzelnen Erbanlagen enthalten, werden Gene genannt. Bei Katzen kann beispielsweise ein Gen das Merkmal kurzer oder langer Schwanz bedeuten, ein anderes Gen braunes oder weißes Haar. Menschen besitzen ca. 25.000 Gene mit 3 Billionen Basenpaaren, ein Bakterium 500 bis 7000 Gene mit 1 – 10 Millionen Basenpaaren.

Video: Craig Venter (in englisch)

Schöpfung oder bekanntes Verfahren?

Einer, dem es kürzlich gelungen ist, das komplette Erbgut eines Bakteriums im Labor synthetisch herzustellen und zusammenzusetzen, ist der US-amerikanische Biochemiker Craig Venter. Venter hatte sich bereits früher einen Namen gemacht, als er im Jahr 2000 das menschliche Genom entschlüsselte. Auch wenn die Synthese von DNA unter den Forschern als allseits bekanntes Verfahren gilt, ist das von Venter erzeugte synthetische Genom mit rund 500.000 Basenpaaren nach seinen Angaben zwanzig Mal größer als alles, was man bisher zusammenhängend produziert hat.

Im nächsten Schritt will Venter das synthetische Genom in eine lebende Bakterienzelle einschleusen. In dieser soll es anstelle des natürlichen Genoms die Kontrolle übernehmen. Dadurch würde er nach seiner Ansicht einen neuen künstlich hergestellten Organismus schaffen. Das wäre ein Durchbruch gegenüber der herkömmlichen Gentechnologie, die nur einzelne Gene verändern kann, aber nicht ganze Gen-Systeme.

Komplette biologische Systeme nach Maß

Noch einen Schritt weiter geht das Zusammenstellen kompletter biologischer Systeme aus Biobricks nach Maß. Die Forscher am Massachusetts Institute for Technology (MIT) haben, um das Ziel zu erreichen, schon mehr als zweitausend Biobricks in einer Datenbank gesammelt. Wie Elektroingenieure ein Schaltbild aus elektronischen Komponenten am Reißbrett zeichnen, wollen die MIT-Zellingenieure nun aus den Genabschnitten der Biobricks komplette Gen-Systeme zusammenstellen. Das so entworfene Genom wird nach Plan produziert und anschließend sollen leere Zellhüllen mit dem künstlichen Erbgut bestückt werden. Das auf diese Weise künstlich geschaffene »Lebewesen« soll dann die geplanten Substanzen produzieren, beispielsweise Biokraftstoffe, Medikamente oder Biokunststoffe.

Kritiker wie Professor André Rosenthal sind allerdings der Ansicht, dass man von der Schaffung künstlichen Lebens noch Jahrhunderte entfernt ist. Rosenthal ist Leiter der Signature Diagnostics AG in Potsdam, die Gen-Tests zur Krebs-Früherkennung erstellt. Auch wenn das Genom synthetisiert werden kann, ist doch die Hülle der Zelle nicht künstlich hergestellt und das ist für ihn entscheidend. Nach seiner Meinung wäre Craig Venters Arbeit nur interessant, wenn er eine künstliche Zelle mit den entsprechenden Zellorganellen im Reagenzglas erzeugen könnte. Wie die Zeitschrift »Bild der Wissenschaft« in ihrer Ausgabe 3/2009 berichtet, gibt es aber bereits Ansätze zur Erschaffung einer kompletten funktionstüchtigen Zelle einschließlich Hülle, wenn auch noch ein langer Weg vor den Forschern liegt. – Klaus-Dieter Sedlacek

Der Autor ist Verfasser des Buchs »Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen«. In dem Buch wird unter anderem der Zusammenhang zwischen den fundamentalen Bausteinen der Welt und Bewusstsein aufgedeckt.

Wissenschaftliches Rätsel: Phänomenale Gedächtnisleistungen von Inselbegabten

Video: Gedaechtnis Giganten

»Solange wir das Savant-Syndrom nicht erklären können, können wir uns selbst nicht erklären«, meint Professor Darold Treffert, Chef der psychiatrischen Abteilung am St. Agnes Hospital in Fond du Lac (Wisconsin). Er ist seit mehr als 40 Jahren damit beschäftigt, inselbegabte Menschen, wie die Savants auch genannt werden, zu untersuchen. Inselbegabte sind oft behindert und hilfsbedürftig, verblüffen aber mit einem unglaublichen Gedächtnis, phänomenalen Rechenleistungen oder genialen künstlerischen Werken. Erklärungsversuche für Inselbegabung und Bewusstsein gibt es, aber können sie auch überzeugen?

Einer der alle anderen Inselbegabten übertrifft, ist Kim Peek. Schätzungsweise zwei Millionen Menschen haben ihn bei seinen öffentlichen Auftritten an Universitäten bestaunt. Kim hat sich den Inhalt von 7600 Sachbüchern Wort für Wort gemerkt. Dazu kennt er Detailinformationen ganzer Regionen: alle Städte, alle Straßen, alle Fahrpläne, dazu jeden Namen mit Adresse und Telefonnummer aus allen Telefonbüchern, die ihm jemals in die Hände gekommen sind. Nur mit Romanen fängt er nichts an. Dagegen ist für ihn die Wiedergabe der Baseball-Ergebnisse der letzten 40 Jahre und der Daten der meisten klassischen Musikstücke, wie Erstaufführung, Komponist oder Geburtsort des Komponisten eine leichte Übung. Aber wenn Kim sich selbst anziehen soll oder die Schuhe zubinden, dann scheitert er.

Kims Kopf ist von Geburt um ein Drittel größer, als der normaler Menschen. Eine enzephalografische Untersuchung zeigt aber in der Mitte seines Gehirns eine gähnende Leere. Ihm fehlt die Verbindung beider Hirnhälften und sein Kleinhirn ist verkümmert. Dagegen ist seine Leistung beim »Scannen« von Büchern, wie er es nennt, mehr als olympiareif. Er zieht beispielsweise die Telefonbücher ganz nah an seinen Augen vorbei. Die linke Seite am linken, die rechte am rechten Auge. So schafft er es, acht Seiten in 53 Sekunden zu scannen. Das sind weniger als 7 Sekunden pro Seite und ist damit schneller als der Scanner am heimischen PC. Wenn man glaubt, so schnell kann sich kein Mensch den Seiteninhalt merken, täuscht man sich. Kim kann es und er vergisst fast nichts.

»Kein Modell über Gehirnfunktionen ist komplett, bevor es nicht Kim mit einbezieht«, sagt Professor Treffert. Aber wie kann man die Leistungen der Inselbegabten erklären? Der Prozess der Signalübertragung im Gehirn funktioniert mithilfe von Nervenzellen. Diese nutzen eine Kombination aus elektrischen und chemischen Signalen, um miteinander zu kommunizieren. Wenn eine Zelle ihre elektrische Spannung ändert, führt das zur Freisetzung chemischer Botenstoffe. Diese wirken auf die nachfolgende Zelle ein. Daraufhin reagiert die nachfolgende Zelle ebenfalls mit einer Spannungsänderung und Freisetzung von Botenstoffen. Durch die Nutzung der chemischen Botenstoffe ist das ein schneckengleicher Prozess und nicht zu vergleichen mit der Hochgeschwindigkeit der Prozessoren heutiger Heimcomputer.

Den meisten Inselbegabten scheint eine gewisse Schädigung der linken Gehirnhälfte gemeinsam zu sein. Möglicherweise gibt es deshalb eine Überkompensation durch die rechte Gehirnhälfte, die für künstlerische, visuelle Fähigkeiten und konkrete Fakten zuständig ist. Was eine Überkompensation aber nicht zu erklären vermag, ist die hohe Geschwindigkeit der Gedächtnisleistungen eines Kim Peek. Und wenn man schon eine vollständige Erklärung für die Gehirnfunktion haben will, dann kann man das Bewusstsein nicht außen vor lassen. Denn eines scheint sicher: Ohne Bewusstsein wäre keine der Geistesleistungen der Inselbegabten möglich.

Als interdisziplinäre Arbeitsrichtung von Biologie und der Physik gehört es zum Aufgabenbereich der Quantenbiologie, geeignete quantenmechanische Erklärungsmodelle für die Gehirnfunktionen und Bewusstsein zu finden. Zu den bisherigen Erfolgen der Quantenbiologie zählt die Erklärung des Sehprozesses. Danach ist Sehen ein rein quantenmechanischer Prozess. Die Lichtteilchen (Photonen), die ins Auge fallen, werden von den zahlreichen Elektronen innerhalb der Netzhaut absorbiert. Das löst eine biochemische Kettenreaktion aus, die am Ende zu einem elektrischen Signal führt, welches im Gehirn weiterverarbeitet wird.

Was für die Erklärung des Sehprozesses vollbracht wurde, ist für die Beschreibung der Gehirnfunktion erst ansatzweise in Sicht. Zu sehr haben sich klassische Erklärungsmodelle ohne Quantenmechanik in den Köpfen der Forscher festgesetzt, als dass von heute auf morgen eine Änderung möglich wäre. Lieber werden unerklärliche Messwerte als sogenannte Messfehler in Kauf genommen, als dass vom klassischen Modell abgewichen wird. Ein Beispiel für eine klassische, aber falsche Erklärung ist das, was in dtv-Lexikon der Physik aus dem Jahre 1970 über die Elektrolyse (z. B. Wasserspaltung) steht: » […] Die Stromleitung innerhalb des Elektrolyten besteht in der Wanderung der positiven und negativen Ionen, die unter dem Einfluss des elektrischen Feldes zu den Elektroden gelangen […]«

Wenn alle Ionen, d. h. also elektrisch geladene Atome oder Moleküle sich tatsächlich einen Weg durch den flüssigen Elektrolyten bahnen müssten, wäre die hohe Effizienz des Vorgangs nicht zu erklären. Zumindest bei der Wasserspaltung stimmt die klassische Erklärung nicht, wie Jan Sperling in seiner Dissertation 1999 an der Freien Universität Berlin nachwies: »Es besteht keine Möglichkeit, die anomalen Abweichungen der Messwerte […] klassisch widerspruchslos zu erklären. Dagegen ist, unter Einbeziehung von Quantenkorrelation […] ein direkter Zusammenhang […] ableitbar.«

Ist aber die Quantenmechanik und Quantenbiologie einschließlich ihrer unerklärlichen ‘spukhaften Fernwirkung’, wie Albert Einstein die Quantenkorrelation bezeichnete, tatsächlich die letzte Erklärungsebene für Gehirnfunktionen und Bewusstsein, so wie im 19. Jahrhundert die angeblich unteilbaren Atome eine letzte Erklärungsebene für die physikalische Welt waren? Quantenmechanik ist in Wirklichkeit nur ein abstrakter mathematischer Formalismus, wenn auch dessen Vorhersagen beeindruckend gut bestätigt werden. Aber möchte man einem Formalismus tatsächlich den Status der letzten physikalischen Erklärungsebene zugestehen? Der Autor und Verfasser des Sachbuchs Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen beantwortet die Frage, indem er eine weitere Erklärungsebene hinzufügt. Für ihn sind es Bewusstseinseinheiten, welche die letzte physikalische Erklärungsebene darstellen: »Bewusstsein ist der fundamentale Baustein von allem was existiert«. Auf der Basis dieser Bewusstseinseinheiten beschreibt er das ‘wahre Gesicht der Wirklichkeit’. So kommt man zu dem Schluss, dass die Quantenbiologie zwar die richtige wissenschaftliche Disziplin ist, um ein komplettes Modell der Gehirnfunktionen und des Bewusstseins zu liefern, dass dieses Modell aber noch einer weiteren physikalischen Erklärungsebene bedarf, wenn man sich nicht mit einem rein mathematischen Formalismus als Erklärung zufriedengeben möchte.

Die Entdeckung des Zufalls

Als Max Planck vor 100 Jahren mit einem Vortrag vor der Deutschen Physikalischen Gesellschaft in Berlin den Grundstein zur Quantentheorie legte, brachte er damit eine tiefgreifende Umwälzung des physikalischen Weltbilds in Gang. Hatten die Wissenschaftler bis dahin geglaubt, die Natur gleiche einem überdimensionalen Uhrwerk mit vorhersehbaren Abläufen, so wurden sie im Zuge der quantenmechanischen Revolution mit der Entdeckung des Zufalls konfrontiert.
Die Erkenntnis, dass es zum Beispiel für den Zeitpunkt des Zerfalls eines radioaktiven Atoms keinerlei Ursache gibt, war für die Physiker zu Beginn des 20. Jahrhunderts keineswegs erfreulich. Die sogenannte deterministische, klassische Physik hatte es ihnen ermöglicht, die Natur zu verstehen und Ereignisse wie Springfluten oder Mondfinsternisse vorherzusagen. Das gab ihnen über viele Jahrhunderte ein Gefühl von Sicherheit und Macht. Das Ende des Determinismus, der Vorhersagbarkeit, war daher nur schwer zu akzeptieren.
Dabei hatten statistische Theorien, die lediglich Aussagen über die Wahrscheinlichkeit eines Ereignisses machen, die Physiker in früheren Zeiten nicht beunruhigt. Man wusste, hochkomplexe Systeme wie Gase ließen sich nur über statistische Aussagen in den Griff bekommen. Denn es ist einfach unmöglich, die Orte und Geschwindigkeiten aller Teilchen eines Gases zu kennen. Würde aber ein „Superhirn” existieren, das über sämtliche nach dem Urknall entstandenen Teilchen Bescheid wüsste, dann müsste es den Lauf der Welt vorausberechnen können – so die damalige Meinung. Nun stellte sich heraus, dass dem Zufall in der Quantentheorie mit dieser Art von Allwissenheit nicht beizukommen war. Die sogenannte Unbestimmtheitsrelation machte es grundsätzlich unmöglich, Ort und Geschwindigkeit eines Gasatoms zur gleichen Zeit exakt zu messen.
Die Quantentheorie brachte aber nicht nur den Zufall ins Spiel. Es stellte sich heraus, dass quantenmechanische Dinge ein merkwürdig schemenhaftes Dasein führen, das erst durch eine Messung, also den Eingriff eines Beobachters, in einen eindeutigen Zustand überführt wird. Der Zustand eines Elektrons ist ohne eine Messung, die uns diesen Zustand offenbart, nicht nur nicht bekannt, sondern einfach nicht definiert. Hieraus ergab sich die Notwendigkeit, über erkenntnistheoretische Fragen nachzudenken. Denn nachdem sicher war, dass es keine vom Beobachter losgelöste Realität gibt, stellte sich die zentrale Frage, was wir dann überhaupt über die Natur wissen können. Was treibt ein Elektron, wenn ihm keiner zusieht? Auf diese Frage gibt es schlichtweg keine Antwort.
Die Quantenmechanik ist die am besten überprüfte und bestätigte Theorie überhaupt. Gleichzeitig sind ihre möglichen Konsequenzen wie Zeitreisen, „geisterhafte Fernwirkungen” oder die Quanten- Teleportation mit unserem an der Alltagswelt geschulten Verstand kaum zu erfassen. Die Quantentheorie bildet die Grundlage der gesamten modernen Physik, denn erst durch sie wurde ein tieferes Verständnis der Materie möglich. Mit ihrer Hilfe können wir beispielsweise erklären, warum Atome stabil sind, wie ein Laser funktioniert und warum Metalle den Strom besser leiten als die meisten Kunststoffe. Und nicht nur für die Elektronik, Optik oder Nanotechnologie ist die Quantenphysik entscheidend – auch die Vorgänge in der Chemie und Molekularbiologie sind letztlich auf Quanteneffekte zurückzuführen. „Bei der Interpretation der Quantentheorie mag es Schwierigkeiten geben”, schreibt der britische Elementarteilchenphysiker Robert Gilmore, „aber sie funktioniert zweifellos aufs beste.”
(Quelle: Themenheft »Entdeckung des Zufalls«, BMBF, Dezember 2000)

Buchtipp:
Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen

Archostemata: 200 Millionen Jahre alter Käfer gibt sein Geheimnis preis.

Lebendes Fossil ist Auslaufmodell der Evolution!

Wunderwelt Wissen: Archostemata - 200 Millionen Jahre alter Käfer
Der “Tetraphalerus bruchi” aus Argentinien ist einer der altertümlichsten heute noch existierenden Käfer.
Foto: Rolf Beutel /FSU

(idw) Nach einem solchen Forschungsgegenstand muss man lange suchen: Die urtümlichen Käfer der Unterordnung “Archostemata” bekommen auch Experten nur äußerst selten in freier Natur zu Gesicht. Denn die wenigen heute noch existierenden Arten (ca. 40) leben – seit nunmehr rund 200 Millionen Jahren – im Verborgenen. Sie zwängen sich durch dunkle, enge Spalten unter der Rinde von Nadelbäumen und sind durchweg äußerst selten. Unter den rund 350.000 Käferarten fallen sie damit kaum ins Gewicht. “Es gibt Arten, von denen bislang lediglich ein einzelnes Exemplar gefunden wurde”, weiß Prof. Dr. Rolf Beutel von der Friedrich-Schiller-Universität Jena. “Andere hat man bereits seit mehr als 30 Jahren nicht mehr gesehen”, so der Professor für Zoologie und Entomologie weiter.

Welche Rolle diese seltenen urtümlichen Insekten im Stammbaum der Käfer spielen, das hat ein Forscherteam um Prof. Beutel am Phyletischen Museum der Universität Jena nun erstmals systematisch analysiert und kürzlich in der Fachzeitschrift “Cladistics” publiziert. Ihre Studie haben die Entomologen im Rahmen des Forschungsprojektes “Beetle Tree of Life” (“Der Stammbaum der Käfer”) der Harvard University durchgeführt, an dem Beutels Gruppe als einziges europäisches Forscherteam beteiligt ist. Mittels der Mikro-Computertomographie haben sie die Anatomie der Archostemata genauestens unter die Lupe genommen.

“Mit dieser Methode lassen sich sowohl äußere, vor allem aber innere Strukturen, wie Muskeln oder das Innenskelett dreidimensional und hochaufgelöst abbilden”, erläutert Prof. Beutel. Untersucht wurde vor allem eine Art aus Argentinien (Tetraphalerus bruchi) und Micromallthus debilis, ein Käfer mit einem extrem komplizierten Lebenszyklus. Vergleichend wurden aber auch fossile Vertreter der urtümlichen Insekten in die Studie mit einbezogen.

Deren Ergebnis überrascht: “Im Grunde sind die Archostemata gar keine echte Gruppe”, so Prof. Beutel. “Vielmehr handelt es sich bei der Bezeichnung Archostemata um eine Art taxonomischen Mülleimer, in dem einfach alles gelandet ist, was altertümlich ist”, ergänzt Prof. Dr. Si-qin Ge von der chinesischen Akademie der Wissenschaften in Peking. Die Forscherin hatte 2007 als Post-Doc an der Jenaer Universität entscheidenden Anteil an den nun veröffentlichten Daten. Das bedeute, dass die Archostemata neu definiert werden müssen. Die ältesten bekannten Käfer aus dem Perm gehören nicht in diese Gruppe sondern in die Stammlinie der gesamten Käfer.

Allein die heute noch lebenden Vertreter stellen tatsächlich eine monophyletische Gruppe dar. “Sie weisen eine Reihe von gemeinsamen Schlüsselmerkmalen auf”, so Prof. Beutel. Charakteristisch sind die noch nicht vollständig sklerotisierten Vorderflügel, die im Gegensatz zu allen übrigen Käfern noch beim Flug eingesetzt werden. Auch die Ausstattung mit Muskeln ist wesentlich ursprünglicher als bei anderen Vertretern.

Dank des Vergleichs mit fossilen Vertretern konnten die Jenaer Insektenforscher auch die evolutiven Schritte rekonstruieren, die während der frühesten Verzweigungsereignisse innerhalb der Käfer stattgefunden haben. Ein entscheidender Schritt der von den besonders artenreichen Gruppen der “modernen” Käfer vollzogen wurde, war die enge Bindung an bedeckt-samige Pflanzen. Zusammen mit diesen sehr artenreichen Samenpflanzen haben sie während der Kreidezeit eine rasante evolutive Entfaltung durchlaufen. Heute sind die Käfer die artenreichste Insektengruppe überhaupt und stellen etwa ein Viertel aller bekannten Organismen. Dabei führen die Archostemata aber ein Schattendasein. “Heute kann man sie getrost als Auslaufmodell der Evolution bezeichnen”, so Prof. Beutel schmunzelnd. Es sei durchaus möglich, dass die meisten Arten bald völlig verschwunden sind oder die ganze Gruppe komplett ausstirbt.

Mit der Charakterisierung der Archostemata hat sich das Interesse der Insektenforscher von der Jenaer Universität jedoch noch lange nicht erschöpft. Derzeit kooperieren sie mit den chinesischen Kollegen um Prof. Ge in einem Projekt zur Untersuchung von Blattkäfern – einem weiteren Baustein zum kompletten “Beetle Tree of Life”.

Weitere Informationen:

https://www.uni-jena.de

Biodiesel: Machen Algen das Tanken bald preiswerter?

WISSEN DER ZUKUNFT berichtet :

Algenschlick am blauen Wasser, Foto: cwgoodroe

Algenschlick am blauen Waser, Foto: cwgoodroe

(Stuttgart/Kornwestheim) -(idw) Der Kornwestheimer Anlagenexporteur Hezinger GmbH will künftig weltweit als Lieferant für Photobioreaktoren zur Algenzucht auftreten, um – alternativ zur Verwendung von Weizen, Raps und Mais – die Gewinnung von Biodiesel aus dem Pflanzenöl der Algen voranzutreiben. In Zusammenarbeit mit renommierten Partnern wurde eine verfahrenstechnisch optimierte Reaktoranlage zur Massenzucht von Algen entwickelt, die die Kosten der Herstellung von Biodiesel erheblich reduzieren wird. Das Ende letzten Jahres gegründete Unternehmen Hezinger Algaetec GmbH soll das neue System im kommenden Herbst auf den Markt bringen.

“Unser Ziel ist es, die industrielle Zucht von Mikroalgen wesentlich günstiger zu gestalten, als das bisher möglich ist”, sagt Steffen Hezinger. Zwar könne man Algen mit derzeitigen Systemen wie Röhren- oder Flachplattenreaktoren züchten, allerdings noch nicht in den wirtschaftlich rentablen Mengen, wie man sie für die Biodieselherstellung benötigt. “Wenn ich 40 Fußballfelder mit Reaktoren voll stellen muss, ist so ein System einfach nicht effektiv zu betreiben, Wirtschaftlichkeit ist aber das A und O, wenn ich am Markt für Biodiesel langfristig Erfolg haben will.”

Auf der Suche nach einer effizienten Lösung setzt der Diplom-Kaufmann deshalb auf geballte Kompetenz in den Bereichen Anlagenbau, Design und Lichttechnik. Dafür holte er sich international renommierte und weltmarktführende Partner in den Bereichen Algenbiologie und Anlagenplanung mit ins Boot.

Das Resultat der Branchen übergreifenden Zusammenarbeit ist ein Photobioreaktor, mit dem sich Produktionsflächen nicht nur horizontal, sondern auch vertikal nutzen lassen. Der Kerngedanke ist, das Licht ins System und an die Alge zu bringen – statt umgekehrt. Die Idee sei zwar nicht wirklich neu, so Steffen Hezinger, entscheidend sei aber die verfahrenstechnische Optimierung. “Der Schlüsselfaktor ist die innovative Lichttechnik, die es möglich macht, einen Reaktor von sechs Metern Höhe und 30 Metern Innendurchmesser nahezu ohne Fremdenergie zu betreiben.”

Noch kann die Hezinger Algaetec GmbH zwar nicht mit genauen Zahlen aufwarten – doch der Prototypentest unter Serienbedingungen ist erfolgreich angelaufen; aussagefähige Ergebnisse sind ab Mitte des Jahres zu erwarten.