Schlagwort-Archive: Evolution

Einzigartige Leistung: Radulfus fortschrittliche Handschriften (12. Jh.)

Moral und Ethik im 12. Jahrhundert? Viele Laien haben bei diesem Thema eher mittelalterlich-düstere Assoziationen. Aber falsch: Es gab seinerzeit durchaus Ideen, die auch aus heutiger Sicht ganz modern anmuten.

Am Ende des 12. Jahrhunderts schrieb der Theologe Radulfus Ardens sein Werk „Speculum universale“ (Universalspiegel). „Es handelt sich dabei um eine der ersten systematischen Gesamtdarstellungen von Moral und Ethik überhaupt und um die umfangreichste im 12. Jahrhundert“, sagt Professor Stephan Ernst von der  Universität Würzburg.

Obwohl das Werk bedeutsam ist, gibt es bislang keine gedruckte Ausgabe – es liegt nur in mittelalterlichen Handschriften vor, die auf mehrere Bibliotheken verteilt und dadurch ausschließlich für Spezialisten zugänglich sind. Professor Ernst will das ändern: An seinem Lehrstuhl wird das „Speculum“ seit 2005 textkritisch ediert: „Wir leisten damit einen Beitrag zu den Grundlagen, auf denen sich die Geschichte der theologischen und philosophischen Ethik des Mittelalters weiter erforschen lässt.“

Einzigartige Leistungen des Autors

Was ist das Besondere an diesem Werk? „Die systematische und differenzierte Weise, wie Radulfus Ardens die Tugenden und Laster aufgliedert und beschreibt, ist für die Zeit des 12. Jahrhunderts sicher einmalig“, so der Würzburger Professor. Einzigartig seien auch die durchgängigen Hinweise auf Komplementärtugenden. Damit sind Tugenden gemeint, die zu anderen Tugenden hinzukommen müssen, damit diese nicht in den Bereich des Lasters abgleiten.

Laut Radulfus muss sich etwa zur Sparsamkeit die Großzügigkeit gesellen, damit die Sparsamkeit nicht zum Geiz wird. Umgekehrt ist die Sparsamkeit für die Großzügigkeit wichtig, damit diese nicht zur Verschwendung wird. Gerechtigkeit bedarf als Ergänzung der Barmherzigkeit, damit sie nicht zu unmenschlicher Härte wird, und Barmherzigkeit bedarf der Gerechtigkeit, damit sie nicht zu ungerechter Laxheit führt. Tapferkeit bedarf der Ergänzung durch die Vorsicht, die Klugheit der Aufrichtigkeit usw. Auch solle der Mensch das richtige Maß zwischen Reden und Schweigen finden, um weder der Geschwätzigkeit noch der Stumpfheit anheimzufallen. Für mehr als 20 Tugenden führt Radulfus dieses Schema durch.

Aus heutiger Sicht ebenfalls überraschend: Radulfus vertrat die Ansicht, dass die moralische Bildung ein Produkt vieler äußerer Faktoren ist. Dazu zählte er unter anderem die Bedingungen, unter denen ein Mensch aufwächst, seine Anlagen und Begabungen, die Gegend, aus der jemand stammt, den Umgang, den man pflegt. „Diese Idee, dass auch die Anlagen sowie die natürliche und soziale Umwelt eine Persönlichkeit und ihr Handeln formen, war seinerzeit keineswegs selbstverständlich“, so Ernst. „Vielmehr wurde die Freiheit des Menschen oft einfach abstrakt und losgelöst von seiner Körperlichkeit, Geschichte und Gemeinschaftsbezogenheit betrachtet.“

Der Theologe Radulfus Ardens beschreibt in seinem Werk auch psychologische Mechanismen, etwa wie sich im Menschen – ausgehend von Gedanken und Wünschen – schließlich der Wille formiert. Er zeigt, dass das Böse und das Gute nicht einem völlig souveränen Willen entspringen, sondern dass der Mensch immer unter Einflüssen steht, die ihn in unterschiedliche Richtungen ziehen.

Stark am Nutzer orientiert

Unüblich war seinerzeit auch die starke Nutzerorientierung, die das Werk des Radulfus auszeichnet. „Es spricht einiges dafür, dass seine Schrift für die pastorale Ausbildung gemacht war. Auch hat sie ein deutliches didaktisches Anliegen“, sagt Ernst. Das merke man zum Beispiel daran, dass Radulfus dem Leser Gliederungsschemata an die Hand gibt, die man sich leicht merken kann. Das merke man aber auch an den vielen Schema-Zeichnungen (Gliederungs-„Bäume“), die im Unterricht offenbar manche Sachverhalte besser verdeutlichen sollten.

Das Werk des Radulfus ist in zehn Handschriften überliefert, die in Bibliotheken in Paris, Rom, Lissabon und Besançon aufbewahrt werden. Auf die Handschrift von Lissabon, die in früheren Arbeiten nicht berücksichtigt wurde, sind die Würzburger Wissenschaftler durch einen Hinweis in der Literatur aufmerksam geworden. Ein wahrer Glücksfall: Die Handschrift ist fast vollständig und gut lesbar. Sie ist damit oft eine Hilfe, wenn in den anderen Handschriften Unklarheiten über die richtige Lesart bestehen.

Unbekannter Radulfus

Der Vergleich der verschiedenen Versionen einer Handschrift ist ein aufwändiger Arbeitsschritt bei kritischen Editionsprojeken. Einiges an Zeit kosteten deshalb die genaue Beschreibung der vorhandenen Manuskripte sowie die Feststellung, wie die verschiedenen Handschriften voneinander abhängen. Aufwändig waren auch die Recherchen zur Person des Radulfus. Dabei konnten die Würzburger Wissenschaftler manche Angaben, die bisher als sicher galten und wie selbstverständlich übernommen wurden, aufgrund der Quellen relativieren: „Man weiß nicht viel über Radulfus; es gibt nicht einmal genaue Lebensdaten“, sagt Ernst.

Fest steht, dass Radulfus im 12. Jahrhundert in der Nähe von Poitiers (Frankreich) lebte und der Schule der Porretaner angehörte. Damit war er auch durch die fortschrittliche Schule von Chartres beeinflusst, die den Erkenntnissen der weltlichen Wissenschaften aufgeschlossen gegenüberstand. In dieser Schule wurden Texte antiker Philosophen offen rezipiert. Sie stellte zum Beispiel Platons Ideen zur Weltentstehung dem biblischen Schöpfungsbericht gegenüber, wobei sogar die Idee vertreten wurde, dass der Mensch das Produkt einer natürlichen Entwicklung sei – Gedanken zur Evolution also, noch viele Jahrhunderte vor Charles Darwin. Aber auch in der Ethik wurden Texte lateinischer Philosophen aufgegriffen und fruchtbar gemacht – oft unter dem Vorwand, daran Übungen in Grammatik durchzuführen. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Merken

Was uns eine Meeresschnecke über Evolution und Bewusstsein verrät?

Schlundsackschnecken zu denen Elysia timida gehört, sind hauptsächlich in der Algenzone der Meeresküsten zu finden. Die Schnecken ernähren sich fast ausschließlich von Algen, deren Chloroplasten sie aufnehmen und in ihre Haut oder vergrößerte Mitteldarmdrüse einlagern können (Kleptoplastiden). Elysia timida hat einen Weg gefunden, sich die Photosynthese von Algen nutzbar zu machen. Wie ist das möglich? Als Naturwissenschaftler gehen wir davon aus, dass sich alle komplexen biologischen Systeme durch evolutionäre Prozesse gebildet haben.

Ein Evolutionsprozess besteht aus drei Schritten, die ich kurz charakterisieren möchte: Zuerst entsteht Neues, möglicherweise noch nie Dagewesenes. Im zweiten Schritt wird das Neue mit Vorhandenem kombiniert und zur Auswahl dargeboten. Im dritten und letzten Schritt wird eine Auswahl unter dem Dargebotenen getroffen. Die Auswahl kann passiv durch Wechselwirkungen mit der Umwelt geschehen oder aktiv unter Berücksichtigung der individuellen Neigung, bestimmte Ziele zu verfolgen (= Bedürfnisse).

Das Verdauungsorgan der Schnecke zerkleinert und zerlegt die gefressenen Algen. Neu im Sinn von Schritt 1 der Evolution ist wohl, dass die Schnecke und speziell ihr Darm zwischen verschiedenen Zellbestandteilen der zerlegten Algen unterscheiden kann. Die Schnecke verfügt ganz offensichtlich über die Möglichkeit, selektiv bestimmte Zellbestandteile zu verdauen, oder auch nicht, obwohl sich die einzelnen Bestandteile nicht prinzipiell unterscheiden und andere Meeresschnecken ungeachtet der unterschiedlichen Algenbestandteile die komplette Alge verdauen.

Für den zweiten Schritt des Evolutionsprozesses ergeben sich daraus folgende Kombinationen: a. alle Zellbestandteile verdauen, b. Chloroplasten verdauen, c. alles verdauen außer Chloroplasten.

Im dritten Schritt des Evolutionsprozesses kommt es zu einer Auswahl unter den drei dargebotenen Möglichkeiten. Bei einer passiven Auswahl durch die Umwelt bleibt entweder alles beim Alten (Kombination a) oder das Neue ist im Regelfall von entscheidendem Vorteil für Lebenserhalt und Fortpflanzung. Bei einer aktiven Auswahl können Bedürfnisse die Wahl bestimmen und es kann b oder c zum Tragen kommen.

Die Biologen gehen davon aus, dass die Elysia-Schnecken in Hungerphasen Energie von den Chloroplasten beziehen, die im Darm weiterhin Photosynthese betreiben. Ein Experiment zeigte allerdings, dass die Schnecken auch ohne Photosynthese der Chloroplasten überleben. Nach zwei Monaten im Dunkeln waren die Schnecken so lebendig wie zuvor. Jetzt vermuten die Forscher, die Schnecke profitiert nicht unbedingt sofort von den Chloroplasten, sondern erst dann, wenn die Darmzellen diese in Hungerphasen abbauen.

Für eine passive Auswahl durch die Umwelt im dritten Schritt der Evolution spricht, dass man aus dem Vorhandensein der Chloroplasten im Darm einen geringfügigen Vorteil für den Lebenserhalt ableiten kann. Doch ist dieser Vorteil entscheidend?

Gegen das Wirken eines passiven Prozesses spricht das Erkennen des Unterschieds verschiedener Zellbestandteile der Algen durch die Schnecke selbst bzw. durch ihre Darmzellen. Es gibt also etwas, was sich auf unterschiedliche Anforderungen einstellen kann.

Was die Auswahl im Evolutionsprozess betrifft, so ist die Wahl der Evolution auf Kombination c gefallen, alles wird verdaut außer den Chloroplasten. Allerdings hat die Schnecke anscheinend die Möglichkeit, in Hungerphasen die Kombination b zu wählen, nämlich die Chloroplasten zu verdauen. Es existiert eine nicht determinierte Entscheidungsmöglichkeit zwischen Handlungsalternativen.

Wenn man zudem davon ausgeht, dass die Schnecke das ganz einfache Bedürfnis hat, sich ihr Leben etwas komfortabler zu gestalten, indem sie die Chloroplasten Sauerstoff und Zucker produzieren lässt, dann sind alle Kriterien für den informationsverarbeitenden Prozess erfüllt, den ich in meinen Schriften als Bewusstsein bezeichnet habe.

Der gleiche Bewusstseinsprozess, der Entscheidungen trifft, wann die Chloroplasten Sauerstoff und Zucker produzieren sollen und wann sie zu verdauen sind, hat auch beim dritten Evolutionsschritt die aktive Auswahl durchgeführt.

Sicher handelt es sich nicht um einen hoch entwickelten Bewusstseinsprozess wie das Selbst- oder Oberbewusstsein beim Menschen. Es ist eher ein dem Unterbewusstsein vergleichbarer Prozess. Beim Menschen führt das Unterbewusstsein viele Entscheidungen und körperliche Steuerungen durch. Nur das Wichtigste wird zur Entscheidung dem Oberbewusstsein zugeführt. Und was das Wichtigste ist, das entscheidet ebenfalls das Unterbewusstsein.

Die Elysia-Schnecke zeigt uns mit hoher Wahrscheinlichkeit, dass einfache Bewusstseinsprozesse selbst auf ihrer nicht allzu hohen Entwicklungsstufe wirken.
Mehr unter:

Merken

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Primäres Bewusstsein bei Mikroben entdeckt

Prokaryoten umfassen die Bakterien und Archaeen, also die einfachsten und frühesten Lebewesen, die wir kennen. Es sind Mikroben ohne Zellkern, die aber ein Chromosom besitzen, mit dessen Hilfe sie sich fortpflanzen. Im Rahmen der Bewusstseinsforschung stellt sich die Frage, ab welcher Stufe der Evolution sich ein rudimentäres Bewusstsein zeigt. Durch raffinierte Tests hat man vor einigen Jahren herausgefunden, dass Schimpansen, Elefanten oder Raben Bewusstsein zeigen. Nun kann man aber auch primäres Bewusstsein bei Prokaryoten nachweisen.

Primäres Bewusstsein ist eine einfache Bewusstseinsform, die etwa mit den Funktionen eines Unterbewusstseins vergleichbar ist. Es beinhaltet nicht das Selbst- oder Ich-Bewusstsein, das wir von uns Menschen kennen. Bewusstsein ist ein informationsverarbeitender Prozess und dient einem Lebewesen dazu, sich auf neue Anforderungen oder geänderte äußere Umstände einzustellen. Wenn das Lebewesen zwischen möglichen Handlungsalternativen auf nicht determinierte Weise entscheidet und die Entscheidung zur Befriedigung seiner Bedürfnisse dient, dann kann man zumindest von primärem Bewusstsein ausgehen (zur Definition von Bewusstsein siehe: Klaus-Dieter Sedlacek, „Der Widerhall des Urknalls“, Norderstedt 2012, S. 148). Andererseits kann man nicht von primärem Bewusstsein ausgehen, wenn Handlungen ausschließlich eine automatische Reaktion auf Umweltreize sind und keinerlei Entscheidungen zwischen Alternativen erkennen lassen.

Prokaryoten haben Geißeln, um sich schwimmend fortbewegen zu können. Die Beweglichkeit kann ihnen nur nützen, wenn sie erkennen, wohin sie schwimmen sollen. Aus ihrer Orientierungsreaktion (Taxis), das heißt, ihrer Ausrichtung nach einem Reiz oder einem Umweltfaktor lassen sich Rückschlüsse auf jenen informationsverarbeitenden Prozess ziehen, der eine Voraussetzung für Bewusstsein ist. Man unterscheidet zum Reiz gerichtete Reaktionen und vom Reiz weggerichtete Meide- oder Schreckreaktionen (negative Taxis).

Bei einer Chemotaxis erfolgt beispielsweise die Ausrichtung nach der Konzentration eines Stoffes. Aerotaxis ist die Orientierung zum Sauerstoff. Es handelt sich um eine besondere Form von Chemotaxis oder Energietaxis. Phototaxis ist die Orientierung an der Helligkeit und Farbe des Lichts und Galvanotaxis die Orientierung an elektrischen Feldern um nur ein paar Taxisarten zu nennen. Im Internet findet sich ein kleines Video über das Pantoffeltierchen (Paramecium), wie es sich an einem elektrischen Feld ausrichtet (https://youtu.be/-U9G0Xhp3Iw).

Viele Bakterien können gleichzeitig die Konzentration von Futtersubstanzen, Sauerstoff oder Licht erkennen und sich danach ausrichten. Solange sie z.B. keine Futtersubstanz erkennen, schwimmen sie eine Zeit lang in eine zufällige Richtung und wechseln anschließend die Richtung, um wieder eine Zeit lang in eine andere Richtung weiterzuschwimmen. Bei geringer werdender Konzentration wechseln sie häufig die Richtung, bei zunehmender Konzentration schwimmen sie dagegen zielgerichteter zum Ort der höheren Konzentration. Sie zeigen ein gleiches Verhalten in Bezug auf die Sauerstoffkonzentration und auf Licht (vgl. Cypionka, „Grundlagen der Mikrobiologie“, 3. Aufl., Springer 2006, S. 33f.)

Aus dem Verhalten kann man ableiten, dass die Bakterien zeitlich auflösen können, ob die Konzentration geringer oder stärker wird. Sie können also Änderungen in den Umweltbedingungen feststellen, indem sie einen vorherigen Zustand auf irgendeine Weise speichern. Schon allein dadurch erkennt man das Vorhandensein eines informationsverarbeitenden Prozesses. Die Mikroben zeigen zudem ein Bedürfnis (= Neigung ein Ziel zu verfolgen), zum Ort der höheren Futter- oder Sauerstoffkonzentration zu schwimmen.

Es kann aber auch vorkommen, dass zwei unterschiedliche Bedürfnisse nicht miteinander vereinbar sind. Beispielsweise kann die höhere Sauerstoffkonzentration entgegengesetzt vom Ort der höheren Futterkonzentration liegen. Zwischen den beiden Orten, an denen je ein anderes Bedürfnis befriedigt wird, gibt es eine Stelle, an der die Bewertung, welcher Reiz stärker ist, gleich ausfällt. Der Mikrobe muss sich entscheiden, welchem Reiz sie nachgeht, d.h., zu welchem Ort sie schwimmen soll. Die Entscheidung kann nicht determiniert fallen, weil vorausgesetzt wird, dass die Stärke der Reize von der Mikrobe gleich bewertet wird. Wir haben es in diesem Fall mit einer nicht determinierte Entscheidung zwischen Handlungsalternativen zu tun. Es ist die Entscheidung in die eine oder in die andere Richtung zur Befriedigung eines Bedürfnisses zu schwimmen.

Zusammenfassend gilt: Im Verhalten der Mikroben kann man einen informationsverarbeitenden Prozess erkennen, der bei Änderungen der Konzentration verschiedener Stoffe, also der Umweltbedingungen, eine nicht determinierte Entscheidung zwischen Handlungsalternativen trifft, die zum zielgerichteten Verhalten zur Befriedigung von Bedürfnissen führt. Das bedeutet: Mikroben zeigen primäres Bewusstsein. – Klaus-Dieter Sedlacek

Buchtipps:

 

Massenaussterben: Die Ursachen der größten Katastrophen

Im Laufe der Evolution sind in den letzten 500 Millionen Jahren immer wieder Tier- und Pflanzenarten in großer Zahl ausgestorben. Kann bereits das Aussterben weniger oder einzelner Arten zu Kettenreaktionen mit solchen verheerenden Folgen führen? Göttinger Forscher am Max-Planck-Institut für Dynamik und Selbstorganisation und der ETH Zürich haben eine mathematische Theorie entwickelt, das unter Verwendung von Fossiliendaten eine Antwort geben kann. Die Theorie zeigt, dass Kettenreaktionen bei der unterschiedlichen Entwicklung der Artenvielfalt im Meer und an Land eine Rolle gespielt haben können. Sie kann dabei helfen, heutige und zukünftige Artensterben zu verstehen.

Bei den fünf größten Massenaussterben in der Erdgeschichte starben jeweils mehr als drei Viertel aller Arten aus, doch danach erholte sich die Artenvielfalt immer wieder. Als Ursachen werden Katastrophen von globaler Größenordnung vermutet, wie z.B. große Meteoriteneinschläge oder Vulkanausbrüche. Aber zum Glück führte nicht jede Naturkatastrophe im Laufe der Erdgeschichte zu einem Massenaussterben, und umgekehrt werden auch diese nicht nur durch globale Naturkatastrophen hervorgerufen.

Das mathematische Modell der Wissenschaftler geht davon aus, dass Arten entweder auf Grund von geänderten Umweltbedingungen aussterben oder durch das Aussterben bestimmter anderer Arten, die für sie unentbehrlich sind. Wenn sich beispielsweise das Klima erwärmt oder abkühlt oder wenn sich die durchschnittliche Niederschlagsmenge oder die Bodenbeschaffenheit ändert, sind dadurch Tiere und Pflanzen bedroht, die sich nicht schnell genug anpassen können oder keinen neuen Lebensraum finden. Wenn dadurch plötzlich einige wichtige Arten fehlen, können andere ebenfalls aussterben, die von ihnen abhängig waren: Das kann geschehen, wenn eine Tierart seine bevorzugte Beute oder Futterpflanze verliert, oder wenn einer Pflanze plötzlich das Insekt fehlt, das sie bestäubt oder der Vogel, der ihre Samen verbreitet.

„Wenn es viele Arten gibt, die von wenigen Arten abhängig sind, ist das Ökosystem instabil. Wenn dann wichtige „Schlüsselarten“ durch veränderte Umweltbedingungen aussterben, kann das eine Kettenreaktion auslösen und zu einem Massenaussterben vieler Arten führen“, erklärt Frank Stollmeier vom Göttinger Max-Planck-Institut. Wenn es dagegen wenige Arten gibt, die von vielen verschiedenen Arten abhängig sind, ist das Ökosystem stabil; veränderte Umweltbedingungen könnten dann zwar viele einzelne Arten auslöschen, aber nicht innerhalb einer großen Kettenreaktion.

 Artenvielfalt im Meer und an Land

Damit kann das Modell auch erklären, warum sich die Artenvielfalt im Meer in den letzten 600 Millionen Jahren anders entwickelt hat als auf dem Land: Nachdem die ersten größeren Lebensformen im Meer entstanden waren, stieg die Artenvielfalt dort zunächst stark an und erreichte vor etwa 450 Millionen Jahren einen Wert, den sie für lange Zeit nicht mehr überschritt. Erst vor etwa 200 Millionen Jahren stieg die Anzahl der Meeresarten nach einem Massenaussterben wieder stark an. An Land dagegen begann der erste Anstieg der Artenvielfalt erst viel später, vor etwa 450 Millionen Jahren. Seitdem ist die kontinentale Artenvielfalt rasant gewachsen und hat die Vielfalt im Meer sogar übertroffen.

Eine zentrale Rolle bei dieser unterschiedlichen Entwicklung spielt in dem Modell das Verhältnis zwischen der Wahrscheinlichkeit, dass eine Art durch Umwelteinflüsse ausstirbt, und der Wahrscheinlichkeit, dass eine neue Art entsteht. Dieses Verhältnis sollte laut dem Modell im Meer höher sein. Eine Analyse von Fossilien-Datenbanken hat in der Tat ergeben, dass Arten im Meer tatsächlich eher aussterben als an Land. Ein Grund dafür könnte sein, dass es im Meer weniger verschiedene Lebensräume gibt als an Land: „Wenn im Meer eine neue Art entsteht, die nicht ideal an Umwelt angepasst ist, hat sie kaum eine Chance, einen neuen Lebensraum zu finden, in dem sie überleben könnte. An Land ist das eher möglich, da es dort sehr viele unterschiedliche Lebensräume gibt“, erklärt Jan Nagler, der die Studie leitete und jetzt an der ETH Zürich arbeitet. Wenn nun die Aussterbewahrscheinlichkeit deutlich kleiner ist als die Wahrscheinlichkeit, dass neue Arten entstehen, bleibt das Ökosystem stabil und die Artenvielfalt wächst schnell. Im umgekehrten Fall wächst die Artenvielfalt langsamer und das Ökosystem wird häufiger instabil.

Dies erklärt, warum die Artenvielfalt im Meer über so lange Zeit stagnierte. Wahrscheinlich war das Ökosystem dort über eine lange Zeit instabil: Es hatten sich zu viele Arten entwickelt, die von wenigen Schlüsselarten abhängig waren, so dass schon das Aussterben von einigen Arten zu einer fatalen Kettenreaktion führte. Somit wurde die Flora und Fauna anfällig für Massenaussterben, die das Wachstum verhinderten. Erst als das Ökosystem einen stabilen Zustand erreicht hatte, in dem weniger Arten von vielen abhingen, konnte die Vielfalt weiter ansteigen.

Das mathematische Modell wurde zwar entwickelt, um die Entwicklung der Artenvielfalt in der Vergangenheit zu erklären, doch es kann auch dazu beitragen, das heutige oder zukünftige Artensterben besser zu verstehen. Es gibt Anzeichen dafür, dass ein neues Massenaussterben begonnen hat, für das der Mensch wahrscheinlich maßgeblich mit verantwortlich ist. Schon 20 bis 40 Prozent der heute bekannten Arten gelten als vom Aussterben bedroht. Leider weiß man empirisch nur wenig darüber, wie sie voneinander abhängen und welche Folgen das Aussterben einer bestimmten Art auf andere hat. Das mathematische Modell ist daher sehr nützlich, um die Prinzipien des Artensterbens zu verstehen, die auch in der aktuellen Situation wirksam sind. (Quelle: idw)

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Prähistorische Technik: Älteste Holzbauwerke der Welt bei Leipzig entdeckt

Der 7000 Jahre alte Brunnen von Altscherbitz bei Leipzig während der Ausgrabung. Quelle: Quelle Sächsisches Landesamt für Archäologie, Dresden
Der 7000 Jahre alte Brunnen von Altscherbitz bei Leipzig während der Ausgrabung.
Quelle: Quelle Sächsisches Landesamt für Archäologie, Dresden

Ein Forschungsteam um Willy Tegel und Dr. Dietrich Hakelberg vom Institut für Waldwachstum der Universität Freiburg hat das Alter von vier Brunnen der frühesten mitteleuropäischen Ackerbaukultur mithilfe der Dendrochronologie oder Jahrringdatierung genau bestimmt. Die Brunnen wurden in Siedlungen im Großraum Leipzig ausgegraben und sind die bislang ältesten bekannten Holzbauwerke der Welt. Sie stammen aus der Linearbandkeramik, der Zeit etwa von 5600 bis 4900 vor Christus. Die Forschungsergebnisse, die in der internationalen Fachzeitschrift „PLoS ONE“ veröffentlicht wurden, liefern neue Erkenntnisse zur prähistorischen Technikgeschichte. An der Arbeit waren Experten der Archäologie und Dendrochronologie vom Freiburger Institut für Waldwachstum, vom Sächsischen Landesamt für Archäologie in Dresden und von der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft in Birmensdorf/Schweiz beteiligt.

Die vier jungsteinzeitlichen Brunnen waren von ihren Erbauern aus Eichenholz angefertigt worden. Neben den Bauhölzern haben zahlreiche andere organische Überreste, etwa Pflanzenreste, Holzgeräte, Rindengefäße und Bastschnüre, sowie viele reich verzierte Keramikgefäße im Grundwasser unter Luftabschluss die Jahrtausende überdauert. Die Methode der Dendrochronologie erlaubte es den Wissenschaftlern, jahrgenau zu bestimmen, wann die Bäume gefällt worden waren. Damit konnten sie die Bauzeit der Brunnen eingrenzen. Demnach fällten jungsteinzeitliche Ackerbauern zwischen 5206 und 5098 vor Christus mit Steinbeilen mächtige, alte Eichen. Sie spalteten die Stämme zu Bohlen, um diese mit komplexen Eckverbindungen zu kastenförmigen Schächten zusammenzufügen. Mit moderner Laserscantechnik erfassten die Wissenschaftler die Bauhölzer und Bearbeitungsspuren und dokumentierten die hoch entwickelten Fähigkeiten der Siedlerinnen und Siedler. Die sehr gut erhaltenen Bearbeitungsspuren und Holzverbindungen zeugen von einer unerwartet anspruchsvollen Holzbautechnik.

In Mitteleuropa setzte sich im 6. Jahrtausend vor Christus die Sesshaftigkeit mit Ackerbau und Viehzucht gegenüber einer Lebensweise als Jäger und Sammler durch. Dieser Umbruch in der Geschichte der Menschheit wird als „neolithische Revolution“ bezeichnet. Um sesshaft zu werden, brauchte der Mensch feste Behausungen. Häuser jedoch sind ohne entwickelte Holztechnik nicht denkbar – die ersten Ackerbauern waren die ersten Zimmerleute. Die einzigen Überreste ihrer Häuser, die bislang ausgegraben wurden, sind allerdings Bodenverfärbungen. Mit den dendrochronologisch präzise datierten Brunnen lässt sich nun erstmals die Bedeutung von Holzbauten für die Sesshaftwerdung des Menschen genauer untersuchen. (Quelle: idw)

Sensationeller Fischsaurierfund: Neue Gattung des schwäbischen Seedrachen

Fischsaurier
Fischsaurier

Stuttgart. Am Staatlichen Museum für Naturkunde Stuttgart haben Forscher eine international bedeutende Entdeckung gemacht. Im Rahmen eines Forschungsprojektes zur Lebensweise und Evolution der Fischsaurier wurde ein Fund aus dem Jahr 1975 erstmals wissenschaftlich untersucht. Dabei stellte sich heraus, dass es sich bei dieser Meeresechse um eine völlig neue Gattung und Fischsaurierart handelt. Und nicht nur das: Der Ichthyosaurier stammt aus einem bisher praktisch „saurierfreien“ Zeitalter (Mittlere Jura-Zeit) und ist ca. 175 Mio. Jahre alt. Für die Wissenschaft ist dieser Fund von großer internationaler Bedeutung, da mit diesem Fossil eine weltweite Fundlücke geschlossen wird. Der neue Fischsaurier gehört in die Verwandtschaft des „Schwäbischen Seedrachen“ (Suevoleviathan), der aus älteren Schichten von Holzmaden bekannt wurde. Damit können die Forscher nun davon ausgehen, dass die urtümlichen Seedrachen im Südwesten Deutschlands länger gelebt haben, als bisher angenommen.

Der Fischsaurier-Fund stammt aus einer inzwischen aufgelassenen Tongrube bei Heiningen im Kreis Göppingen und wurde im Jahr 1975 bei einer Grabung geborgen. Danach kam der Fund in die Sammlungen des Staatlichen Museums für Naturkunde Stuttgart und lag seit damals sicher verwahrt in der wissenschaftlichen Sammlung des Museums. Dort ruhen zahlreiche fossile Schätze – und Arbeit für Jahrhunderte. Denn die geborgenen Fossilien müssen meist in oft monatelanger Arbeit präpariert werden, bevor sie Informationen für die Wissenschaftler preisgeben oder reif für die Präsentation in Ausstellungen sind. Da die Arbeitskraft knapp ist, müssen die Forscher sorgfältig auswählen, welche Fossilien bearbeitet werden. Für das aktuelle Forschungsprojekt der kanadischen Gastwissenschaftlerin Dr. Erin Maxwell und dem Stuttgarter Paläontologen Dr. Rainer Schoch kam der Fischsaurier aus Heiningen nun wie gerufen. Denn – das war den Saurierspezialisten klar – er ist ein absolutes Unikat: Weltweit war bisher kein einziger Fischsaurier aus diesem Zeitabschnitt bekannt. Präparatoren des Staatlichen Museums für Naturkunde Stuttgart haben daraufhin den riesigen, 1,6 Meter langen Schädel, einige Wirbel und Rumpfteile der ca. 7,50 m messenden Meeresechse freigelegt.

Für den Saurierexperten des Staatlichen Museums für Naturkunde Stuttgart, Dr. Rainer Schoch, ist das freigelegte Fossil aus der Zeit des sogenannten „Braunen Juras“ eine Sensation: „Der Fischsaurier-Fund widerlegt frühere Vorstellungen und hilft uns bei der weiteren Erforschung der Saurier, ihrer Entwicklung und Lebensweise. Aufgrund dieses Fundes können wir sogar Aussagen über die Umwelt der Meeresechsen vor 175 Mio. Jahren treffen.“ Für den Urzeit-Forscher ergeben sich dadurch weitere wichtige Rückschlüsse auf die Evolution dieser Tiergruppe.

Nicht nur dieser Fund zeigt: Fischsaurier waren mit ihrem stromlinienförmigen Körper vollkommen an die Lebensweise im Jura-Meer angepasst und echte Erfolgsmodelle der Evolution. Die delphinähnlichen Meeresechsen erlangten bisher vor allem durch viele spektakuläre Funde aus den Ölschiefern in Holzmaden am Fuße der Schwäbischen Alb (Untere Jura-Zeit vor ca. 180. Mio. Jahren) große Berühmtheit. Die weltweit einmalige Besonderheit der baden-württembergischen Fundexemplare unterstreicht nun auch der aktuell bearbeitete, 3-dimensional erhaltene Fund. Da es sich bei diesem Fischsaurier um eine neue Gattung und Art handelt, hat die Meeresechse noch keinen wissenschaftlichen Namen. Dieser wird von den Forschern noch festgelegt. (Quelle: idw)

Gehört Spiritualität zu den zentralen Elementen der Modernität?

Spätestens als zur Sommersonnenwende sich mehrere tausend Menschen gemeinsam auf dem Times Square zum Sonnengruß streckten, wurde allgemein sinnfällig, wie sehr Yoga zu einer westlichen Massenbewegung geworden ist. Spiritualität ist nicht mehr das, was sie mal war – soviel steht für den Anthropologen Peter van der Veer fest. Peter van der Veer bezweifelt, ob solche Veranstaltungen tatsächlich noch etwas mit den ursprünglichen Vorstellungen von Spiritualität zu tun haben: “Es fehlen die kritischen Elemente, wie sie noch in den spirituellen Ideen zu Beginn des 20. Jahrhunderts steckten.“

Für van der Veer gehört die Spiritualität zusammen mit anderen säkularen Ideen von Nationen, Gleichheit, Bürgertum, Demokratie und Rechten zu den zentralen Elementen in der Geschichte der Modernität, die sich gegen die althergebrachten Gesellschaftsordnungen und Wertvorstellungen richteten. “Das Spirituelle und das Säkulare sind im 19. Jahrhundert gleichzeitig als zwei miteinander verbundene Alternativen zur institutionalisierten Religion in der Euro-Amerikanischen Moderne entstanden”, so lautet eine der Kernthesen des gebürtigen Niederländers. Damit verweist er ganz nebenbei auch die verbreitete Ansicht, dass die Wiege der Spiritualität in Indien liegt, ins Reich der modernen Mythen. “Es gibt nicht einmal ein Wort für Spiritualität in Sanskrit”, sagt van der Veer. Gehört Spiritualität zu den zentralen Elementen der Modernität? weiterlesen

Kann Religion die Übel der Welt rechtfertigen?

Die Theologie reklamiert für sich rationales Denken und Wissenschaftlichkeit – trotz ihrer Bindung an die Religion. Dabei geht es ihr vor allem darum, innere Widersprüche zu beseitigen, aber auch um die Auseinandersetzung und Abstimmung mit anderen Disziplinen. Doch ist hier ein Konsens überhaupt möglich? Kann Religion die Übel der Welt rechtfertigen? weiterlesen