Archiv der Kategorie: Widerhall des Urknalls

Einsteins Gravitationswellen entdeckt

(11.02.2016) Idw. In diesem Jahr jährt sich Einsteins Vorhersage von Gravitationswellen zum hundertsten Mal. Und an diesem Donnerstag, um 16:30 Ortszeit, hat die amerikanische National Science Foundation eine Pressekonferenz im National Press Club in Washington, DC, einberufen, auf der Wissenschaftler von Caltech, MIT und dem Laser Interferometer Gravitational-wave Observatory (LIGO) die neuesten Resultate von LIGOs Suche nach Gravitationswellen bekanntgeben werden.

Einsteins Gravitationswellen entdeckt weiterlesen

Geheimnisvolle Signale aus einer fernen quantenkosmologischen Vergangenheit

Was passierte bei der Geburt des Weltalls? Wie konnten sich Sterne, Planeten und ganze Galaxien überhaupt bilden? Das sind die Fragen, die Viatcheslav Mukhanov mit seinen Berechnungen zu beantworten versucht. Mukhanov ist Physik-Ordinarius an der LMU und Experte für Theoretische Quantenkosmologie. Und es ist seine Idee der Quantenfluktuationen, die ein entscheidendes Moment in der Startphase des Universums beschreibt: Ohne die Dichteschwankungen, die aus den minimalen Fluktuationen entstehen, lässt sich die spätere Verteilung der Materie und die Bildung von Sternen, Planeten und Galaxien schwerlich erklären.

Jetzt hat das Planck-Konsortium neue Auswertungen von Messergebnissen veröffentlicht. Das Weltraumteleskop hat die kosmische Hintergrundstrahlung vermessen und damit ein Abbild des frühen Universums geliefert. Diese neuen Planck-Daten decken sich exakt mit den Berechnungen des LMU-Kosmologen, etwa für die entscheidende Größe des sogenannten Spektralindexes. „Die Planck-Daten haben die grundlegende Voraussage bestätigt, dass Quantenfluktuationen am Anfang aller Strukturen im Universum stehen“, bekräftigt Jean-Loup Puget, der leitende Wissenschaftler des HFI-Instruments der Planck-Mission. „Besser könnte meine Theorie nicht bestätigt werden“, sagt Mukhanov. Schon 1981 hatte der Wissenschaftler, seit 1997 an der LMU, seinen Ansatz erstmals publiziert.

Spuren aus ferner Vergangenheit

Dass auch die Quanten im frühen Universum gewissen Fluktuationen unterlegen haben müssen, ergibt sich für Mukhanov aus der Heisenbergschen Unschärferelation. Sie besagt, dass sich Ort und Impuls eines Teilchens nicht exakt angeben lassen. Aus den submikroskopisch winzigen Fluktuationen entstanden makroskopische Dichteschwankungen. Ohne diesen Mechanismus, dessen genaue Ausprägung und Größenordnung Mukhanov berechnet, ließe sich die Verteilung von Materie im heutigen Universum nicht vorhersagen.

Die neuen Planck-Datensätze sind noch detaillierter und aussagekräftiger als die ersten Auswertungen, die vor knapp zwei Jahren veröffentlicht wurden. Mit niemals zuvor erreichter Präzision zeigen sie die Muster, mit denen sich die Fluktuationen in die Strahlung des jungen Universums eingebrannt haben. Als eine Botschaft aus ferner Vergangenheit können Teleskope wie Planck sie heute – 13,8 Milliarden Jahre später – als Mikrowellenstrahlung einfangen. So geben die Planck-Messungen Aufschluss über die Geburt des Weltalls.

Gravitationswellen nicht beglaubigt

Die Existenz von sogenannten primordialen Gravitationswellen konnten die Planck-Daten indes nicht zeigen. Diese weiteren lange gesuchten Signale des fernen Urknalls meinte das BICEP2-Team aus seinen Daten herauslesen zu können, das Teleskop vermisst von der Antarktis aus die kosmische Hintergrundstrahlung. Im März 2014 meldete das Team seine sensationelle Entdeckung – vorschnell, wie sich bald herausstellte. Und soeben veröffentlichten Planck- und BICEP2-Forscher gemeinsam einen Abgleich ihrer Daten, der keinen Nachweis der Gravitationswellen erbrachte. LMU-Forscher Mukhanov hatte schon im Frühjahr 2014 erklärt, dass die Ergebnisse von BICEP2 und Planck nicht gleichzeitig stimmen können. „Gravitationswellen mag es trotzdem geben“, sagt der LMU-Wissenschaftler. „Aber unsere Messgeräte sind offenbar noch nicht genau genug.“ Doch unabhängig davon, ob ein tatsächlicher Nachweis der Gravitationswellen gelingt: Ohne den Mechanismus der Quantenfluktuation, ergänzt Mukhanov, kommt kein Modell aus, das erklären soll, was unmittelbar nach dem Urknall geschah. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Was ist eigentlich Entropie?

Entropie

Die Entropie wird oft missverständlich als eine Art „Unordnung“ bezeichnet. Doch das greift viel zu kurz. Einst eingeführt, um den begrenzten Wirkungsgrad von Dampfmaschinen zu erklären, wird der Begriff heute auch in vielen anderen Disziplinen genutzt.

Kaum ein Begriff der Physik wird so gerne außerhalb der Physik benutzt – und so oft abweichend von seiner eigentlichen Bedeutung – wie der der Entropie. Dabei hat der Begriff durchaus eine eng umrissene Bedeutung. Eine konkrete Definition dieser physikalischen Größe stellte der österreichische Physiker Ludwig Boltzmann in der zweiten Hälfte des 19. Jahrhunderts auf. Er konzentrierte sich auf das mikroskopische Verhalten eines Fluids, also eines Gases oder einer Flüssigkeit. Die ungeordnete Bewegung von Atomen oder Molekülen darin verstand er dabei als Wärme, was für seine Definition entscheidend war.

Entropie in der Badewanne

In einem abgeschlossenen System mit festem Volumen und fixer Teilchenzahl, so legte Boltzmann fest, ist die Entropie proportional zum Logarithmus der Anzahl von Mikrozuständen in dem System. Unter Mikrozuständen verstand er alle Möglichkeiten, wie sich die Moleküle oder Atome des eingesperrten Fluids anordnen können. Seine Formel definiert die Entropie somit als ein Maß für die „Anordnungsfreiheit“ der Moleküle und Atome: Steigt die Zahl der einnehmbaren Mikrozustände, dann wächst die Entropie. Gibt es weniger Möglichkeiten, wie sich die Teilchen des Fluids anordnen können, ist die Entropie kleiner.

Boltzmanns Formel wird oft so interpretiert, als sei die Entropie gleichbedeutend mit „Unordnung“. Dieses vereinfachte Bild führt allerdings leicht in die Irre. Ein Beispiel dafür ist der Schaum in einer Badewanne: Wenn die Bläschen zerplatzen und die Wasseroberfläche glatt wird, hat es den Anschein, als nehme die Unordnung ab. Die Entropie tut das aber nicht! Tatsächlich nimmt sie sogar zu, denn nach dem Zerplatzen des Schaums ist der mögliche Aufenthaltsraum für die Moleküle der Flüssigkeit nicht mehr auf die Außenhäute der Bläschen beschränkt – die Zahl der einnehmbaren Mikrozustände hat sich also vergrößert. Die Entropie ist gewachsen.

Mithilfe der Boltzmannschen Definition lässt sich eine Seite des Begriffs verstehen – doch die Entropie hat auch eine andere, makroskopische Seite, die der deutsche Physiker Rudolf Clausius bereits einige Jahre zuvor aufgedeckt hatte. Zu Beginn des 18. Jahrhunderts wurde die Dampfmaschine erfunden, eine klassische Wärmekraftmaschine. Wärmekraftmaschinen wandeln einen Temperaturunterschied in mechanische Arbeit um. Physiker versuchten damals zu begreifen, welchen Prinzipien diese Maschinen gehorchen. Die Forscher stellten nämlich irritiert fest, dass sich nur ein paar Prozent der thermischen Energie in mechanische Energie umwandeln ließen. Der Rest ging irgendwie verloren – ohne dass sie den Grund verstanden.

Wertigkeit der Energie

Der Theorie der Thermodynamik schien ein physikalisches Konzept zu fehlen, das die unterschiedliche Wertigkeit der Energie berücksichtigt und die Fähigkeit begrenzt, thermische Energie in mechanische Energie umzuwandeln. In Gestalt der Entropie kam die Lösung. Mitte des 19. Jahrhunderts führte Clausius den Begriff als thermodynamische Größe ein und definierte ihn als makroskopisches Maß für eine Eigenschaft, die die Nutzbarkeit von Energie begrenzt.

Clausius zufolge hängt die Entropieänderung eines Systems von der zugeführten Wärme und der dabei herrschenden Temperatur ab. Zusammen mit Wärme wird immer Entropie übertragen, so sein Fazit. Darüber hinaus stellte Clausius fest, dass die Entropie in geschlossenen Systemen, anders als die Energie, keine Erhaltungsgröße ist. Diese Erkenntnis ging als der zweite Hauptsatz der Thermodynamik in die Physik ein:

„In einem geschlossenen System nimmt die Entropie niemals ab.“

Die Entropie nimmt demnach immer zu oder bleibt konstant. Damit wird in die Physik geschlossener Systeme ein Zeitpfeil eingeführt, denn bei wachsender Entropie sind thermodynamische Prozesse in geschlossenen Systemen unumkehrbar (oder irreversibel).

Reversibel (umkehrbar) wäre ein Prozess nur dann, wenn die Entropie konstant bliebe. Das ist aber bloß theoretisch möglich. Alle realen Prozesse sind irreversibel. Frei nach Boltzmann kann man auch sagen: Die Zahl der möglichen Mikrozustände nimmt jederzeit zu. Diese mikroskopische Interpretation erweitert die thermodynamisch-makroskopische Interpretation durch Clausius. Durch die Entropie ließ sich das Rätsel um die verschwundene Energie in Wärmekraftmaschinen endlich auflösen (siehe Kasten). Ständig entzieht sich ein Teil der Wärmeenergie der mechanischen Nutzbarkeit und wird wieder abgegeben, weil die Entropie in geschlossenen Systemen nicht abnehmen darf.

Vielseitiger Einsatz

Seit den Erkenntnissen von Clausius und Boltzmann ist die Entropie auch in andere Bereiche der Physik eingezogen. Sogar außerhalb der Physik griff man sie auf, jedenfalls als mathematisches Konzept. Beispielsweise führte der US-amerikanische Mathematiker und Elektrotechniker Claude Shannon im Jahr 1948 die sogenannte Informationsentropie ein. Mit dieser Größe charakterisierte er den Informationsverlust in Übertragungen per Telefonleitung.

Auch in der Chemie und Biologie spielt die Entropie eine Rolle: In bestimmten offenen Systemen können sich neue Strukturen bilden, sofern Entropie nach außen abgegeben wird. Es muss sich dabei um sogenannte dissipative Systeme handeln, bei denen also Energie in thermische Energie umgewandelt wird. Diese Theorie der Strukturbildung stammt vom belgischen Physikochemiker Ilya Prigogine. Bis heute werden Arbeiten veröffentlicht, in denen der physikalischen Tragweite des Konzepts neue Aspekte hinzugefügt werden.

Wirkungsgrad und Entropie

Warum ist der Wirkungsgrad von Wärmekraftmaschinen begrenzt? Rudolf Clausius löste dieses Rätsel, indem er den Begriff der Entropie einführte. Der Physiker betrachtete den Kreisprozess einer idealisierten Wärmekraftmaschine, bei dem sich Expansion und Kompression unter isothermen (konstante Temperatur) und isentropen (konstante Entropie) Bedingungen abwechseln. Durch Verknüpfung der Energieerhaltung mit dem zweiten Hauptsatz der Thermodynamik ergibt sich in diesem sogenannten Carnotprozess die folgende Ungleichung für den Wirkungsgrad:

η≤(T1T2)/T1

T1 und T2 sind die beiden Temperaturen, zwischen denen der Kreisprozess betrieben wird. Der maximal erreichbare Wirkungsgrad einer Wärmekraftmaschine ist also durch thermodynamische Gesetzmäßigkeiten begrenzt. Ein Beispiel: Wird die Maschine zwischen 100 und 200 Grad Celsius betrieben, dann liegt der maximal erreichbare Wirkungsgrad bei rund 27 Prozent (die Temperaturwerte müssen in der Einheit Kelvin in die Formel eingesetzt werden).

Aus der Energieerhaltung und dem zweiten Hauptsatz der Thermodynamik lassen sich auf mathematischem Weg auch noch zwei weitere nützliche Erkenntnisse ableiten: Wärme kann nur dann von einem kalten auf einen warmen Körper übergehen, wenn Arbeit aufgewendet wird – Kühlschränke und Wärmepumpen benötigen eine Energiezufuhr. Zweitens lässt sich mit einem Wärmereservoir konstanter Temperatur keine Arbeit verrichten. Dazu ist immer der Fluss von Wärme zwischen Reservoirs unterschiedlicher Temperatur notwendig.

Entropie in Formeln

Der Begriff Entropie ist eine Neubildung durch Rudolf Clausius aus griechischen Wörtern und bedeutet übersetzt ungefähr „Wandlungsgehalt“. Laut dem Physiker hängt die Entropieänderung ΔS eines Systems folgendermaßen mit der zugeführten Wärme und der Temperatur zusammen:

ΔS=ΔQ/T

Dabei bezeichnet ΔQ eine kleine, dem System reversibel zugeführte Wärmemenge und T die Temperatur, die bei dieser Übertragung herrscht. Die Formel besagt, dass zusammen mit Wärme immer Entropie übertragen wird. Boltzmanns Definition der Entropie beruht auf dem Verständnis der Wärme als ungeordnete Bewegung von Atomen oder Molekülen. Ihm zufolge ist die Entropie S durch folgende Formel gegeben:

S=k lnW

Die Entropie ist also proportional zum Logarithmus der Zahl W der „Mikrozustände“ eines Systems, wobei alle anderen Parameter – wie Volumen und Teilchenzahl – konstant sind. Mit den Mikrozuständen sind die Möglichkeiten gemeint, wie die Moleküle oder Atome eines eingesperrten Fluids angeordnet sein können. Die Konstante k ist die Boltzmann-Konstante.

Autor: Sven Titz; Quelle: Welt der Physik; Lizenz: CC by-nc-nd

Merken

Merken

Geistermaterie lauert in der Milchstraße

Eine mysteriöse Form von Materie durchzieht unser Universum. Sie ist etwa fünf Mal häufiger als die sichtbare Materie, jedoch von nach wie vor unbekannter, „dunkler“ Natur. Dass diese mysteriöse Entität, der man den Namen “Dunkle Materie” oder Geistermaterie gab, existieren muss, belegten Forschungsarbeiten bereits in den 1970er Jahren. Erstmals ist es nun einem internationalen Wissenschaftlerteam gelungen, Dunkle Materie auch im Inneren unserer Galaxie zu belegen. Woraus Dunkle Materie  besteht, konnte allerdings nicht herausgefunden werden.

Die allgegenwärtige Präsenz der Dunklen Materie im Universum ist heute ein zentraler Grundsatz der modernen Kosmologie und Astrophysik. In verschiedenen Galaxien wurde ihre Existenz seit den 1970er Jahren mit einer Reihe von Methoden belegt. Eine dieser Methoden ist die Messung der Drehgeschwindigkeit von Gas und Sternen. Wissenschaftler können so eine Galaxie „wiegen“ und ihre Gesamtmasse bestimmen. Dabei zeigt sich, dass die gewöhnliche Materie nur einen Bruchteil des Gesamtgewichts ausmacht, den überwiegenden Teil trägt die Dunkle Materie bei.

Auch in den äußeren Bereichen unserer eigenen Galaxie, die wir bei klarem Nachthimmel als „Milchstraße“ sehen können, wurden die Astronomen mit diese Methodik fündig. Doch im inneren Bereich unserer Galaxie war es bisher unmöglich, die Anwesenheit Dunkler Materie sicher zu belegen.

Der Durchmesser unserer Galaxie beträgt etwa 100.000 Lichtjahre. Unser Sonnensystem ist etwa 26.000 Lichtjahre vom Zentrum der Milchstraße entfernt. Je näher man der Mitte kommt, desto schwieriger wird es, die Rotation des Gases und der Sterne mit der benötigten Genauigkeit zu messen.

Auf Basis der Messung von Sternenbewegungen haben nun Wissenschaftler der Technischen Universität München (TUM), der Universität Stockholm, der Freien Universität Madrid, des Internationalen Zentrums für Theoretische Physik des Südamerikanischen Instituts für Grundlagenforschung (ICTP-SAIFR) in São Paulo und der Universität Amsterdam erstmalig einen Beweis für die Anwesenheit Dunkler Materie im Inneren der Milchstraße vorgelegt. Dunkle Materie existiert danach auch im Bereich unseres Sonnensystems und in unserer direkten „kosmischen Nachbarschaft“.

In einem ersten Schritt erstellten die Forscher die umfassendste Sammlung veröffentlichter Messungen der Bewegung von Gas und Sternen in der Milchstraße. Dann berechneten sie auf Basis aktuellster Forschungsergebnisse die Rotationsgeschwindigkeit, die die Milchstraße haben müsste, wenn sie nur aus sichtbarer Materie bestünde. Der Vergleich der gemessenen und der berechneten Geschwindigkeit zeigte eindeutig, dass hier die Dunkle Materie einen entscheidenden Beitrag leistet.

„Wir konnten mit unserer Arbeit belegen, dass sich das Gas und die Sterne in unserer Galaxie ohne den Beitrag von Dunkler Materie nicht mit den beobachteten Geschwindigkeiten drehen könnten“, sagt Dr. Miguel Pato, der die Analyse an der TU München durchführte. „Allerdings wissen wir immer noch nicht, aus was die Dunkle Materie besteht. Dies ist eine der wichtigsten Wissenschaftsfragen unserer Zeit“.

Auch für geringe Entfernung vom Zentrum der Milchstraße besitzen die Daten der Forschungsarbeit eine hohe Evidenz. Sie erschließen damit neue Wege zur Bestimmung der Verteilung Dunkler Materie in unserer Galaxie. Zukünftige astronomische Beobachtungen könnten damit die Verteilung der Dunklen Materie in unserer Galaxie mit bisher unerreichter Genauigkeit bestimmen.

„Damit können wir das Verständnis der Struktur und der Entwicklung unserer Galaxie wesentlich verbessern. Und es wird präzisere Vorhersagen für die vielen Experimente ermöglichen, die weltweit nach Teilchen der Dunklen Materie suchen“, sagt Miguel Pato, der inzwischen zum Oskar Klein-Zentrum für Astroteilchen-Physik an der Universität Stockholm gewechselt ist. (Quelle: idw)

Publikation:
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato, Gianfranco Bertone
Nature Physics, advanced online publication, 9 February 2015
DOI: 10.1038/nphys3237 – Link: https://nature.com/articles/doi:10.1038/nphys3237
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Einzigartige Leistung: Radulfus fortschrittliche Handschriften (12. Jh.)

Moral und Ethik im 12. Jahrhundert? Viele Laien haben bei diesem Thema eher mittelalterlich-düstere Assoziationen. Aber falsch: Es gab seinerzeit durchaus Ideen, die auch aus heutiger Sicht ganz modern anmuten.

Am Ende des 12. Jahrhunderts schrieb der Theologe Radulfus Ardens sein Werk „Speculum universale“ (Universalspiegel). „Es handelt sich dabei um eine der ersten systematischen Gesamtdarstellungen von Moral und Ethik überhaupt und um die umfangreichste im 12. Jahrhundert“, sagt Professor Stephan Ernst von der  Universität Würzburg.

Obwohl das Werk bedeutsam ist, gibt es bislang keine gedruckte Ausgabe – es liegt nur in mittelalterlichen Handschriften vor, die auf mehrere Bibliotheken verteilt und dadurch ausschließlich für Spezialisten zugänglich sind. Professor Ernst will das ändern: An seinem Lehrstuhl wird das „Speculum“ seit 2005 textkritisch ediert: „Wir leisten damit einen Beitrag zu den Grundlagen, auf denen sich die Geschichte der theologischen und philosophischen Ethik des Mittelalters weiter erforschen lässt.“

Einzigartige Leistungen des Autors

Was ist das Besondere an diesem Werk? „Die systematische und differenzierte Weise, wie Radulfus Ardens die Tugenden und Laster aufgliedert und beschreibt, ist für die Zeit des 12. Jahrhunderts sicher einmalig“, so der Würzburger Professor. Einzigartig seien auch die durchgängigen Hinweise auf Komplementärtugenden. Damit sind Tugenden gemeint, die zu anderen Tugenden hinzukommen müssen, damit diese nicht in den Bereich des Lasters abgleiten.

Laut Radulfus muss sich etwa zur Sparsamkeit die Großzügigkeit gesellen, damit die Sparsamkeit nicht zum Geiz wird. Umgekehrt ist die Sparsamkeit für die Großzügigkeit wichtig, damit diese nicht zur Verschwendung wird. Gerechtigkeit bedarf als Ergänzung der Barmherzigkeit, damit sie nicht zu unmenschlicher Härte wird, und Barmherzigkeit bedarf der Gerechtigkeit, damit sie nicht zu ungerechter Laxheit führt. Tapferkeit bedarf der Ergänzung durch die Vorsicht, die Klugheit der Aufrichtigkeit usw. Auch solle der Mensch das richtige Maß zwischen Reden und Schweigen finden, um weder der Geschwätzigkeit noch der Stumpfheit anheimzufallen. Für mehr als 20 Tugenden führt Radulfus dieses Schema durch.

Aus heutiger Sicht ebenfalls überraschend: Radulfus vertrat die Ansicht, dass die moralische Bildung ein Produkt vieler äußerer Faktoren ist. Dazu zählte er unter anderem die Bedingungen, unter denen ein Mensch aufwächst, seine Anlagen und Begabungen, die Gegend, aus der jemand stammt, den Umgang, den man pflegt. „Diese Idee, dass auch die Anlagen sowie die natürliche und soziale Umwelt eine Persönlichkeit und ihr Handeln formen, war seinerzeit keineswegs selbstverständlich“, so Ernst. „Vielmehr wurde die Freiheit des Menschen oft einfach abstrakt und losgelöst von seiner Körperlichkeit, Geschichte und Gemeinschaftsbezogenheit betrachtet.“

Der Theologe Radulfus Ardens beschreibt in seinem Werk auch psychologische Mechanismen, etwa wie sich im Menschen – ausgehend von Gedanken und Wünschen – schließlich der Wille formiert. Er zeigt, dass das Böse und das Gute nicht einem völlig souveränen Willen entspringen, sondern dass der Mensch immer unter Einflüssen steht, die ihn in unterschiedliche Richtungen ziehen.

Stark am Nutzer orientiert

Unüblich war seinerzeit auch die starke Nutzerorientierung, die das Werk des Radulfus auszeichnet. „Es spricht einiges dafür, dass seine Schrift für die pastorale Ausbildung gemacht war. Auch hat sie ein deutliches didaktisches Anliegen“, sagt Ernst. Das merke man zum Beispiel daran, dass Radulfus dem Leser Gliederungsschemata an die Hand gibt, die man sich leicht merken kann. Das merke man aber auch an den vielen Schema-Zeichnungen (Gliederungs-„Bäume“), die im Unterricht offenbar manche Sachverhalte besser verdeutlichen sollten.

Das Werk des Radulfus ist in zehn Handschriften überliefert, die in Bibliotheken in Paris, Rom, Lissabon und Besançon aufbewahrt werden. Auf die Handschrift von Lissabon, die in früheren Arbeiten nicht berücksichtigt wurde, sind die Würzburger Wissenschaftler durch einen Hinweis in der Literatur aufmerksam geworden. Ein wahrer Glücksfall: Die Handschrift ist fast vollständig und gut lesbar. Sie ist damit oft eine Hilfe, wenn in den anderen Handschriften Unklarheiten über die richtige Lesart bestehen.

Unbekannter Radulfus

Der Vergleich der verschiedenen Versionen einer Handschrift ist ein aufwändiger Arbeitsschritt bei kritischen Editionsprojeken. Einiges an Zeit kosteten deshalb die genaue Beschreibung der vorhandenen Manuskripte sowie die Feststellung, wie die verschiedenen Handschriften voneinander abhängen. Aufwändig waren auch die Recherchen zur Person des Radulfus. Dabei konnten die Würzburger Wissenschaftler manche Angaben, die bisher als sicher galten und wie selbstverständlich übernommen wurden, aufgrund der Quellen relativieren: „Man weiß nicht viel über Radulfus; es gibt nicht einmal genaue Lebensdaten“, sagt Ernst.

Fest steht, dass Radulfus im 12. Jahrhundert in der Nähe von Poitiers (Frankreich) lebte und der Schule der Porretaner angehörte. Damit war er auch durch die fortschrittliche Schule von Chartres beeinflusst, die den Erkenntnissen der weltlichen Wissenschaften aufgeschlossen gegenüberstand. In dieser Schule wurden Texte antiker Philosophen offen rezipiert. Sie stellte zum Beispiel Platons Ideen zur Weltentstehung dem biblischen Schöpfungsbericht gegenüber, wobei sogar die Idee vertreten wurde, dass der Mensch das Produkt einer natürlichen Entwicklung sei – Gedanken zur Evolution also, noch viele Jahrhunderte vor Charles Darwin. Aber auch in der Ethik wurden Texte lateinischer Philosophen aufgegriffen und fruchtbar gemacht – oft unter dem Vorwand, daran Übungen in Grammatik durchzuführen. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Merken

Die Rätsel des Universums

München (ots) – Unser Wissen über das Universum ist enorm – doch viele Fragen sind noch unbeantwortet. Wie groß ist das Universum, woher kommen die Kometen und was hält die Galaxien zusammen – diesen und weiteren Rätseln des Universums geht das Weltraum-Magazin SPACE  nach.

Wie groß unser Universum ist – diese Frage ist nur teilweise gelöst. Seit dem Urknall konnte es sich “nur” 13,8 Milliarden Jahre lang ausdehnen. Das von weiter weg gelegenen Objekten abgestrahlte Licht hat uns einfach noch nicht erreicht. Das heißt also, das für uns von der Erde aus beobachtbare Universum ist eine kugelförmige Blase mit einem Radius von 13,8 Milliarden Lichtjahren. Wie weit es sich darüber hinaus ausdehnt, ist heiß umstritten.

Ebenfalls nur teilweise geklärt ist die Herkunft der Kometen. Ihren Ursprung erklären sich die Wissenschaftler mit Hilfe der sog. Oortschen Wolke, einer riesigen, das Sonnensystem in einer Entfernung von 20.000 Astronomischen Einheiten (1 AE entspricht etwa 149,6 Mio. km) umgebenden Wolke. Diese bildete sich wahrscheinlich, als die gerade entstandenen Planeten sonnennahe Kometen weiter “hinausbeförderten”. Und obwohl sie für uns (noch) nicht sichtbar ist, gilt diese Oortsche Wolke als Ursprung aller unserem Sonnensystem zugehörigen Kometen.

Ungelöst ist nach wie vor die Frage, was Galaxien zusammenhält. An die Gesetze der Physik halten sich manche von ihnen nicht, denn sie rotieren so schnell, dass die Gravitationswirkung ihrer sichtbaren Bestandteile nicht ausreicht, sie zusammenzuhalten. Sie müssten zerreißen, tun es aber nicht. Hier vermuten Wissenschaftler, dass eine mit modernen Instrumenten nicht messbare Materie für den Zusammenhalt der Galaxien verantwortlich sein muss – die sog. “Dunkle Materie”. Diese interagiert nicht mit der elektromagnetischen Wechselwirkung, das erschwert es, sie aufzuspüren. Die Lösung dieses Rätsels wäre eine der größten wissenschaftlichen Entdeckungen.

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Primäres Bewusstsein bei Mikroben entdeckt

Prokaryoten umfassen die Bakterien und Archaeen, also die einfachsten und frühesten Lebewesen, die wir kennen. Es sind Mikroben ohne Zellkern, die aber ein Chromosom besitzen, mit dessen Hilfe sie sich fortpflanzen. Im Rahmen der Bewusstseinsforschung stellt sich die Frage, ab welcher Stufe der Evolution sich ein rudimentäres Bewusstsein zeigt. Durch raffinierte Tests hat man vor einigen Jahren herausgefunden, dass Schimpansen, Elefanten oder Raben Bewusstsein zeigen. Nun kann man aber auch primäres Bewusstsein bei Prokaryoten nachweisen.

Primäres Bewusstsein ist eine einfache Bewusstseinsform, die etwa mit den Funktionen eines Unterbewusstseins vergleichbar ist. Es beinhaltet nicht das Selbst- oder Ich-Bewusstsein, das wir von uns Menschen kennen. Bewusstsein ist ein informationsverarbeitender Prozess und dient einem Lebewesen dazu, sich auf neue Anforderungen oder geänderte äußere Umstände einzustellen. Wenn das Lebewesen zwischen möglichen Handlungsalternativen auf nicht determinierte Weise entscheidet und die Entscheidung zur Befriedigung seiner Bedürfnisse dient, dann kann man zumindest von primärem Bewusstsein ausgehen (zur Definition von Bewusstsein siehe: Klaus-Dieter Sedlacek, „Der Widerhall des Urknalls“, Norderstedt 2012, S. 148). Andererseits kann man nicht von primärem Bewusstsein ausgehen, wenn Handlungen ausschließlich eine automatische Reaktion auf Umweltreize sind und keinerlei Entscheidungen zwischen Alternativen erkennen lassen.

Prokaryoten haben Geißeln, um sich schwimmend fortbewegen zu können. Die Beweglichkeit kann ihnen nur nützen, wenn sie erkennen, wohin sie schwimmen sollen. Aus ihrer Orientierungsreaktion (Taxis), das heißt, ihrer Ausrichtung nach einem Reiz oder einem Umweltfaktor lassen sich Rückschlüsse auf jenen informationsverarbeitenden Prozess ziehen, der eine Voraussetzung für Bewusstsein ist. Man unterscheidet zum Reiz gerichtete Reaktionen und vom Reiz weggerichtete Meide- oder Schreckreaktionen (negative Taxis).

Bei einer Chemotaxis erfolgt beispielsweise die Ausrichtung nach der Konzentration eines Stoffes. Aerotaxis ist die Orientierung zum Sauerstoff. Es handelt sich um eine besondere Form von Chemotaxis oder Energietaxis. Phototaxis ist die Orientierung an der Helligkeit und Farbe des Lichts und Galvanotaxis die Orientierung an elektrischen Feldern um nur ein paar Taxisarten zu nennen. Im Internet findet sich ein kleines Video über das Pantoffeltierchen (Paramecium), wie es sich an einem elektrischen Feld ausrichtet (https://youtu.be/-U9G0Xhp3Iw).

Viele Bakterien können gleichzeitig die Konzentration von Futtersubstanzen, Sauerstoff oder Licht erkennen und sich danach ausrichten. Solange sie z.B. keine Futtersubstanz erkennen, schwimmen sie eine Zeit lang in eine zufällige Richtung und wechseln anschließend die Richtung, um wieder eine Zeit lang in eine andere Richtung weiterzuschwimmen. Bei geringer werdender Konzentration wechseln sie häufig die Richtung, bei zunehmender Konzentration schwimmen sie dagegen zielgerichteter zum Ort der höheren Konzentration. Sie zeigen ein gleiches Verhalten in Bezug auf die Sauerstoffkonzentration und auf Licht (vgl. Cypionka, „Grundlagen der Mikrobiologie“, 3. Aufl., Springer 2006, S. 33f.)

Aus dem Verhalten kann man ableiten, dass die Bakterien zeitlich auflösen können, ob die Konzentration geringer oder stärker wird. Sie können also Änderungen in den Umweltbedingungen feststellen, indem sie einen vorherigen Zustand auf irgendeine Weise speichern. Schon allein dadurch erkennt man das Vorhandensein eines informationsverarbeitenden Prozesses. Die Mikroben zeigen zudem ein Bedürfnis (= Neigung ein Ziel zu verfolgen), zum Ort der höheren Futter- oder Sauerstoffkonzentration zu schwimmen.

Es kann aber auch vorkommen, dass zwei unterschiedliche Bedürfnisse nicht miteinander vereinbar sind. Beispielsweise kann die höhere Sauerstoffkonzentration entgegengesetzt vom Ort der höheren Futterkonzentration liegen. Zwischen den beiden Orten, an denen je ein anderes Bedürfnis befriedigt wird, gibt es eine Stelle, an der die Bewertung, welcher Reiz stärker ist, gleich ausfällt. Der Mikrobe muss sich entscheiden, welchem Reiz sie nachgeht, d.h., zu welchem Ort sie schwimmen soll. Die Entscheidung kann nicht determiniert fallen, weil vorausgesetzt wird, dass die Stärke der Reize von der Mikrobe gleich bewertet wird. Wir haben es in diesem Fall mit einer nicht determinierte Entscheidung zwischen Handlungsalternativen zu tun. Es ist die Entscheidung in die eine oder in die andere Richtung zur Befriedigung eines Bedürfnisses zu schwimmen.

Zusammenfassend gilt: Im Verhalten der Mikroben kann man einen informationsverarbeitenden Prozess erkennen, der bei Änderungen der Konzentration verschiedener Stoffe, also der Umweltbedingungen, eine nicht determinierte Entscheidung zwischen Handlungsalternativen trifft, die zum zielgerichteten Verhalten zur Befriedigung von Bedürfnissen führt. Das bedeutet: Mikroben zeigen primäres Bewusstsein. – Klaus-Dieter Sedlacek

Buchtipps:

 

Elektronen gleichzeitig an zwei verschiedenen Orten

Nach einem grundlegenden Theorem der Quantenmechanik sind bestimmte Elektronen in ihrem Ort nicht eindeutig bestimmbar. Zwei Physikern der Universität Kassel ist nun gemeinsam mit Kollegen in einem Experiment der Beweis gelungen, dass sich diese Elektronen tatsächlich an zwei Orten gleichzeitig aufhalten.

„Vermutet hat man dieses für den Laien schwer verständliche Verhalten schon lange, aber hier ist es zum ersten Mal gelungen, dies experimentell nachzuweisen“, erläuterte Prof. Dr. Arno Ehresmann, Leiter des Fachgebiets „Funktionale dünne Schichten und Physik mit Synchrotronstrahlung“ an der Universität Kassel. „In umfangreichen Versuchen haben wir an Elektronen von Sauerstoff-Molekülen die zum Beweis dieser Aussage charakteristischen Oszillationen nachgewiesen.“ Dr. André Knie, Mitarbeiter am Fachgebiet und Geschäftsführer des LOEWE-Forschungs-Schwerpunkts „Elektronendynamik chiraler Systeme“, ergänzte: „Dieses Experiment legt einen Grundstein für das Verständnis der Quantenmechanik, die uns wie so oft mehr Fragen als Antworten gibt. Besonders die Dynamik der Elektronen ist ein Feld der Quantenmechanik, dass zwar schon seit 100 Jahren untersucht wird, aber immer wieder neue und verblüffende Einsichten in unsere Natur ermöglicht.“

Die theoretischen Grundlagen für die Entdeckung gehen auf Albert Einstein zurück. Er erhielt für die Beschreibung des sogenannten Photoeffekts 1922 den Physik-Nobelpreis. Danach können Elektronen aus Atomen oder Molekülen mit Hilfe von Licht dann entfernt werden, wenn die Energie des Lichts größer ist als die Bindungsenergie der Elektronen. Einstein hat schon 1905 die mathematische Beschreibung dieses sogenannten Photoeffekts abgeleitet, in dem er damals Unerhörtes annahm: Licht wird dazu als ein Strom aus Lichtteilchen beschrieben und je ein Lichtteilchen („Photon“) übergibt seine Energie an je ein Elektron. Übersteigt diese Energie die Energie, mit dem das Elektron an das Atom gebunden ist, wird das Elektron freigesetzt. Soweit wurde diese Annahme später auch experimentell bestätigt.

Einstein weitergedacht

Darauf aufbauend lässt sich das Verhalten von Elektronen weiter untersuchen. In einem zweiatomigen Molekül, das aus zwei gleichen Atomen zusammengesetzt ist (z. B. das Sauerstoffmolekül O2) gibt es Elektronen, die sehr eng an das jeweilige Atom gebunden sind. Im Teilchenbild könnte man sich vorstellen, dass diese Elektronen um das jeweilige Atom kreisen. Nach der Quantenmechanik sind diese Elektronen allerdings nicht zu unterscheiden. Für ein Photon mit einer Energie, die größer ist als die Bindungsenergie dieser Elektronen (für beide Elektronen ist die Bindungsenergie gleich) stellt sich nun die Frage: An welches dieser beiden für mich als Photon nicht zu unterscheidenden Elektronen gebe ich meine Energie ab? Die Antwort der Quantenmechanik lautet: Das Photon gibt seine Energie zwar an ein einziges Elektron ab, aber dieses befindet sich mit einer gewissen Wahrscheinlichkeit gleichzeitig nahe bei Atom 1 und nahe bei Atom 2 (das Gleiche gilt für das andere Elektron). Und: Elektronen sind auch als Welle verstehbar, genauso wie damals Einstein zur Beschreibung des Lichts Teilchen angenommen hat. Wird nun ein einziges Elektron vom Atom entfernt, so laufen die zugehörigen Wellen sowohl von Atom 1 aus, als auch von Atom 2, da sich dieses Elektron ja gleichzeitig da und dort befindet. Seit langem wurde daher schon vorhergesagt, dass sich diese beiden Wellen überlagern müssen und damit interferieren. Experimentell war der Nachweis dieser Interferenzmuster bis dato noch nicht gelungen.

Genau dies glückte jedoch nun der Forschungsgruppe, an der die Kasseler Physiker Ehresmann und Knie beteiligt waren – ein eindeutiger Beleg, dass sich ein Elektron gleichzeitig an zwei verschiedenen Orten aufhält. Die Experimente wurden an den Synchrotronstrahlungsanlagen DORIS III bei DESY in Hamburg sowie BESSY II in Berlin durchgeführt. Dabei wurde monochromatische Synchrotronstrahlung auf gasförmige Moleküle fokussiert. Diese wurden durch die Strahlung ionisiert und die bei der Ionisation freiwerdenden Elektronen durch sogenannte Elektronenspektrometer winkel- und energieaufgelöst detektiert. (Quelle: idw)

Buchtipps:

 

Generalangriff der Philosophie auf die naturwissenschaftliche Weltsicht

Der amerikanische Philosoph Thomas Nagel bläst in seinem neuen Buch mit dem Titel „Geist und Kosmos“ (ISBN 978-3518586013 ) zum Generalangriff auf die etablierte naturwissenschaftliche Weltsicht. Ihr Problem, so seine These, ist grundsätzlicher Natur: Das, was den menschlichen Geist auszeichnet – Bewusstsein, Denken und Werte –, lässt sich nicht reduzieren, schon gar nicht auf überzeitliche physikalische Gesetze.

Hat Thomas Nagel recht oder passt seine eigene Weltsicht nicht zur Realität?

Zur Beantwortung der Frage möchte ich hier mein eigenes Weltbild als Naturwissenschaftler kurz skizzieren. Mein Weg zur Erklärung von Information, Bewusstsein, Sinn, Bedeutung, aber auch Dingen wie Krankheit oder die Phänomene der Quantenphysik, basiert auf einer strikten Trennung der abstrakten geistigen von der physikalischen Welt, da jede Vermischung beider Welten zu Ergebnissen führt, die weder real sind noch zur Naturwissenschaft gehören, sondern allein in der abstrakten geistigen Welt angesiedelt sind.

Beispielsweise gehören mathematische Formeln, exakte geometrische Formen, Gottheiten oder “unmögliche Dinge” wie eckige Kreise und eierlegende Wollmilchsäue zur abstrakten geistigen Welt. Ein Großteil der Objekte der Philosophie gehört dorthin. In der geistigen Welt existiert alles, was man nur denken kann.

Zum Bereich der realen physikalischen Welt gehört alles, was sich prinzipiell messen oder beobachten lässt, d. h. Wechselwirkungen mit anderen Objekten eingeht. Das Kriterium “Wechselwirkungen” hilft uns zu unterscheiden, was in die eine, was in die andere Welt gehört. Beispielsweise können eierlegende Wollmilchsäue in der freien Natur nicht fotografiert werden, d.h. sie können keine Photonen aussenden, die zu Wechselwirkungen mit dem Foto-Chip führen. Würde jemand mit einem Fotoapparat losziehen, um Bilder von der Wollmilchsau-Spezies zu schießen, würde man ihn zu Recht für dumm oder verrückt erklären, weil er die Realität nicht von der geistigen Welt zu unterscheiden vermag. Wenn es allerdings um die Anbetung von Gottheiten geht, dann ist die Gemeinschaft der Gläubigen geneigt, die Entitäten ihres eigenen Glaubens für real zu halten, die der Andersgläubigen aber für irreal.

Wie Schrödingers Katze die abstrakte mit der realen Welt vermischt

Die Vermischung von realer und geistiger Welt findet man nicht nur im geisteswissenschaftlichen oder theologischen Bereich, sondern genauso bei jenen Quantenphysikern, die Schrödingers Wellenfunktion als eine Beschreibung der Wirklichkeit ansehen. Zur Erinnerung: Schrödingers Wellenfunktion ist eine mathematische Formel zur Beschreibung des Zustands von Quanten vor ihrer Messung. Wäre die Wellenfunktion eine Beschreibung der Wirklichkeit, dann wäre Schrödingers Katze, die in einem Gedankenexperiment zusammen mit einem Mordinstrument in eine Kiste eingesperrt ist, vor dem Öffnen der Kiste gleichzeitig tot und lebendig.

Schrödingers Katze ist ein gutes Beispiel für die Vermischung der abstrakten Welt mit der realen physikalischen (siehe auch: „Der Widerhall des Urknalls“ ISBN 978-3848212255, S. 113). Die Wellenfunktion gehört als mathematische Formel zur abstrakten geistigen Welt, die Katze in der Kiste zur realen physikalischen. Die Vermischung der beiden Welten in einer physikalischen Theorie führt zu etwas, was in der realen Welt völliger Unsinn, in der abstrakten geistigen Welt ein erlaubtes gedankliches Konstrukt ist. Man muss sich nur im Klaren darüber sein, dass die Ergebnisse der Theorien, die beide Welten miteinander vermischen, nicht zur realen Welt gehören. Um es noch mal ganz deutlich zu sagen: Die gleichzeitig tote und lebendige Katze von Schrödingers Gedankenexperiment gehört nicht der realen Welt an.

Wie abstrakte und reale Welt miteinander verbunden sind

Zwischen der abstrakten und der physikalischen Welt gibt es nur eine Verbindung: Das sind die Prozesse. Dabei definiere ich einen Prozess in Übereinstimmung mit der DIN IEC 60050-351 als die Gesamtheit von aufeinander einwirkenden Vorgängen in einem System, durch die Materie, Energie oder Information umgeformt, transportiert oder gespeichert wird.“ Beispielsweise sind Computerprogramme Prozesse. Der Programmcode gehört zur abstrakten geistigen Welt. Die Ausführung des Programmcodes gehört zur physikalischen Welt, weil jede Durchführung eines Programmschritts eine Wechselwirkung darstellt.

Thomas Nagel ist wohl nicht bewusst, dass Prozesse die Verbindung zwischen der abstrakten geistigen und der realen Welt darstellen. Es mag völlig richtig sein, dass “Werte” nicht zur naturwissenschaftlichen Welt gehören, doch wenn Werte (= Ziele) in Prozesse (= Programme) eingebaut werden, dann verbinden sie die abstrakte Welt mit der physikalischen. Das Gleiche gilt für “Denken”. Denken formt Information um oder speichert sie. Denken kann deshalb als ein Prozess angesehen werden und der Denkprozess verbindet die abstrakte mit der realen Welt, indem etwas ausgeführt wird. Abstrakte Information wird umgeformt und physikalisch gespeichert.

Was ist aber mit dem Bewusstsein? Allgemein wird Bewusstsein als eine Entität angesehen, die je nachdem, aus welcher Fakultät der Wissenschaftler stammt, entweder einer nicht fassbaren, d. h. abstrakten, oder einer realen materialistischen, d. h. physikalischen Welt zugeordnet wird. Theologen und Geisteswissenschaftler neigen eher dazu, Bewusstsein als eine Entität der geistigen Ebene anzusehen. Dagegen ist nach meiner Überzeugung Bewusstsein ein Prozess (wie ich unter anderem in meinem Büchlein mit dem Titel “Synthetisches Bewusstsein ISBN 978-3842368033”) beschrieben habe. Damit verbindet es beide Welten, die abstrakte geistige und die physikalische.

Nagel hat insoweit recht, dass alle drei Entitäten, die den menschlichen Geist auszeichnen, sich nicht auf physikalische Gesetze reduzieren lassen. Aber sie lassen sich auf Prozesse reduzieren, die eine Verbindung zwischen der physikalischen und der abstrakten Welt darstellen.

Kann Krankheit auf überzeitliche physikalische Gesetze reduziert werden?

Wir können das bisher Gesagte anwenden und testen, indem wir einmal untersuchen, wo Krankheit einzuordnen ist. Ist Krankheit etwas abstrakt Geistiges oder ist es eine Entität der naturwissenschaftlichen Weltsicht? Nagel würde jetzt sagen: „Krankheit lässt sich nicht reduzieren auf überzeitliche physikalische Gesetze.“

Ich sehe Krankheit als ein Abweichen von der Regelhaftigkeit der Lebensvorgänge. Das Ausmaß dieses Abweichens bestimmt, ob es sich um Krankheit handelt oder nicht. Das Ausmaß ist ein abstrakter geistiger Wert. Lebensvorgänge sind Prozesse, denn in einem biologischen System, auf das sich der jeweilige Lebensvorgang bezieht, wird Materie, Energie oder Information umgeformt, transportiert oder gespeichert. Wenn es bei einem der Systemelemente zu Abweichungen kommt, dann kann das als Krankheit gelten. Weil Lebensvorgänge Prozesse sind, sehe ich Krankheit ebenfalls als einen Prozess. Da in Prozessen regelmäßig Information umgeformt, transportiert oder gespeichert wird, liegt in der Beobachtung und Einordnung der sich verändernden Information einer der Schlüssel zum tieferen Verständnis für das Wesen der Krankheit. Wie Information sich auf den Krankheitsprozess auswirkt, werde ich in einem meiner nächsten Beiträge untersuchen. – Klaus-Dieter Sedlacek

Buchtipps: