Schlagwort-Archive: Realität

Geheimnisvolle Signale aus einer fernen quantenkosmologischen Vergangenheit

Was passierte bei der Geburt des Weltalls? Wie konnten sich Sterne, Planeten und ganze Galaxien überhaupt bilden? Das sind die Fragen, die Viatcheslav Mukhanov mit seinen Berechnungen zu beantworten versucht. Mukhanov ist Physik-Ordinarius an der LMU und Experte für Theoretische Quantenkosmologie. Und es ist seine Idee der Quantenfluktuationen, die ein entscheidendes Moment in der Startphase des Universums beschreibt: Ohne die Dichteschwankungen, die aus den minimalen Fluktuationen entstehen, lässt sich die spätere Verteilung der Materie und die Bildung von Sternen, Planeten und Galaxien schwerlich erklären.

Jetzt hat das Planck-Konsortium neue Auswertungen von Messergebnissen veröffentlicht. Das Weltraumteleskop hat die kosmische Hintergrundstrahlung vermessen und damit ein Abbild des frühen Universums geliefert. Diese neuen Planck-Daten decken sich exakt mit den Berechnungen des LMU-Kosmologen, etwa für die entscheidende Größe des sogenannten Spektralindexes. „Die Planck-Daten haben die grundlegende Voraussage bestätigt, dass Quantenfluktuationen am Anfang aller Strukturen im Universum stehen“, bekräftigt Jean-Loup Puget, der leitende Wissenschaftler des HFI-Instruments der Planck-Mission. „Besser könnte meine Theorie nicht bestätigt werden“, sagt Mukhanov. Schon 1981 hatte der Wissenschaftler, seit 1997 an der LMU, seinen Ansatz erstmals publiziert.

Spuren aus ferner Vergangenheit

Dass auch die Quanten im frühen Universum gewissen Fluktuationen unterlegen haben müssen, ergibt sich für Mukhanov aus der Heisenbergschen Unschärferelation. Sie besagt, dass sich Ort und Impuls eines Teilchens nicht exakt angeben lassen. Aus den submikroskopisch winzigen Fluktuationen entstanden makroskopische Dichteschwankungen. Ohne diesen Mechanismus, dessen genaue Ausprägung und Größenordnung Mukhanov berechnet, ließe sich die Verteilung von Materie im heutigen Universum nicht vorhersagen.

Die neuen Planck-Datensätze sind noch detaillierter und aussagekräftiger als die ersten Auswertungen, die vor knapp zwei Jahren veröffentlicht wurden. Mit niemals zuvor erreichter Präzision zeigen sie die Muster, mit denen sich die Fluktuationen in die Strahlung des jungen Universums eingebrannt haben. Als eine Botschaft aus ferner Vergangenheit können Teleskope wie Planck sie heute – 13,8 Milliarden Jahre später – als Mikrowellenstrahlung einfangen. So geben die Planck-Messungen Aufschluss über die Geburt des Weltalls.

Gravitationswellen nicht beglaubigt

Die Existenz von sogenannten primordialen Gravitationswellen konnten die Planck-Daten indes nicht zeigen. Diese weiteren lange gesuchten Signale des fernen Urknalls meinte das BICEP2-Team aus seinen Daten herauslesen zu können, das Teleskop vermisst von der Antarktis aus die kosmische Hintergrundstrahlung. Im März 2014 meldete das Team seine sensationelle Entdeckung – vorschnell, wie sich bald herausstellte. Und soeben veröffentlichten Planck- und BICEP2-Forscher gemeinsam einen Abgleich ihrer Daten, der keinen Nachweis der Gravitationswellen erbrachte. LMU-Forscher Mukhanov hatte schon im Frühjahr 2014 erklärt, dass die Ergebnisse von BICEP2 und Planck nicht gleichzeitig stimmen können. „Gravitationswellen mag es trotzdem geben“, sagt der LMU-Wissenschaftler. „Aber unsere Messgeräte sind offenbar noch nicht genau genug.“ Doch unabhängig davon, ob ein tatsächlicher Nachweis der Gravitationswellen gelingt: Ohne den Mechanismus der Quantenfluktuation, ergänzt Mukhanov, kommt kein Modell aus, das erklären soll, was unmittelbar nach dem Urknall geschah. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Einzigartige Leistung: Radulfus fortschrittliche Handschriften (12. Jh.)

Moral und Ethik im 12. Jahrhundert? Viele Laien haben bei diesem Thema eher mittelalterlich-düstere Assoziationen. Aber falsch: Es gab seinerzeit durchaus Ideen, die auch aus heutiger Sicht ganz modern anmuten.

Am Ende des 12. Jahrhunderts schrieb der Theologe Radulfus Ardens sein Werk „Speculum universale“ (Universalspiegel). „Es handelt sich dabei um eine der ersten systematischen Gesamtdarstellungen von Moral und Ethik überhaupt und um die umfangreichste im 12. Jahrhundert“, sagt Professor Stephan Ernst von der  Universität Würzburg.

Obwohl das Werk bedeutsam ist, gibt es bislang keine gedruckte Ausgabe – es liegt nur in mittelalterlichen Handschriften vor, die auf mehrere Bibliotheken verteilt und dadurch ausschließlich für Spezialisten zugänglich sind. Professor Ernst will das ändern: An seinem Lehrstuhl wird das „Speculum“ seit 2005 textkritisch ediert: „Wir leisten damit einen Beitrag zu den Grundlagen, auf denen sich die Geschichte der theologischen und philosophischen Ethik des Mittelalters weiter erforschen lässt.“

Einzigartige Leistungen des Autors

Was ist das Besondere an diesem Werk? „Die systematische und differenzierte Weise, wie Radulfus Ardens die Tugenden und Laster aufgliedert und beschreibt, ist für die Zeit des 12. Jahrhunderts sicher einmalig“, so der Würzburger Professor. Einzigartig seien auch die durchgängigen Hinweise auf Komplementärtugenden. Damit sind Tugenden gemeint, die zu anderen Tugenden hinzukommen müssen, damit diese nicht in den Bereich des Lasters abgleiten.

Laut Radulfus muss sich etwa zur Sparsamkeit die Großzügigkeit gesellen, damit die Sparsamkeit nicht zum Geiz wird. Umgekehrt ist die Sparsamkeit für die Großzügigkeit wichtig, damit diese nicht zur Verschwendung wird. Gerechtigkeit bedarf als Ergänzung der Barmherzigkeit, damit sie nicht zu unmenschlicher Härte wird, und Barmherzigkeit bedarf der Gerechtigkeit, damit sie nicht zu ungerechter Laxheit führt. Tapferkeit bedarf der Ergänzung durch die Vorsicht, die Klugheit der Aufrichtigkeit usw. Auch solle der Mensch das richtige Maß zwischen Reden und Schweigen finden, um weder der Geschwätzigkeit noch der Stumpfheit anheimzufallen. Für mehr als 20 Tugenden führt Radulfus dieses Schema durch.

Aus heutiger Sicht ebenfalls überraschend: Radulfus vertrat die Ansicht, dass die moralische Bildung ein Produkt vieler äußerer Faktoren ist. Dazu zählte er unter anderem die Bedingungen, unter denen ein Mensch aufwächst, seine Anlagen und Begabungen, die Gegend, aus der jemand stammt, den Umgang, den man pflegt. „Diese Idee, dass auch die Anlagen sowie die natürliche und soziale Umwelt eine Persönlichkeit und ihr Handeln formen, war seinerzeit keineswegs selbstverständlich“, so Ernst. „Vielmehr wurde die Freiheit des Menschen oft einfach abstrakt und losgelöst von seiner Körperlichkeit, Geschichte und Gemeinschaftsbezogenheit betrachtet.“

Der Theologe Radulfus Ardens beschreibt in seinem Werk auch psychologische Mechanismen, etwa wie sich im Menschen – ausgehend von Gedanken und Wünschen – schließlich der Wille formiert. Er zeigt, dass das Böse und das Gute nicht einem völlig souveränen Willen entspringen, sondern dass der Mensch immer unter Einflüssen steht, die ihn in unterschiedliche Richtungen ziehen.

Stark am Nutzer orientiert

Unüblich war seinerzeit auch die starke Nutzerorientierung, die das Werk des Radulfus auszeichnet. „Es spricht einiges dafür, dass seine Schrift für die pastorale Ausbildung gemacht war. Auch hat sie ein deutliches didaktisches Anliegen“, sagt Ernst. Das merke man zum Beispiel daran, dass Radulfus dem Leser Gliederungsschemata an die Hand gibt, die man sich leicht merken kann. Das merke man aber auch an den vielen Schema-Zeichnungen (Gliederungs-„Bäume“), die im Unterricht offenbar manche Sachverhalte besser verdeutlichen sollten.

Das Werk des Radulfus ist in zehn Handschriften überliefert, die in Bibliotheken in Paris, Rom, Lissabon und Besançon aufbewahrt werden. Auf die Handschrift von Lissabon, die in früheren Arbeiten nicht berücksichtigt wurde, sind die Würzburger Wissenschaftler durch einen Hinweis in der Literatur aufmerksam geworden. Ein wahrer Glücksfall: Die Handschrift ist fast vollständig und gut lesbar. Sie ist damit oft eine Hilfe, wenn in den anderen Handschriften Unklarheiten über die richtige Lesart bestehen.

Unbekannter Radulfus

Der Vergleich der verschiedenen Versionen einer Handschrift ist ein aufwändiger Arbeitsschritt bei kritischen Editionsprojeken. Einiges an Zeit kosteten deshalb die genaue Beschreibung der vorhandenen Manuskripte sowie die Feststellung, wie die verschiedenen Handschriften voneinander abhängen. Aufwändig waren auch die Recherchen zur Person des Radulfus. Dabei konnten die Würzburger Wissenschaftler manche Angaben, die bisher als sicher galten und wie selbstverständlich übernommen wurden, aufgrund der Quellen relativieren: „Man weiß nicht viel über Radulfus; es gibt nicht einmal genaue Lebensdaten“, sagt Ernst.

Fest steht, dass Radulfus im 12. Jahrhundert in der Nähe von Poitiers (Frankreich) lebte und der Schule der Porretaner angehörte. Damit war er auch durch die fortschrittliche Schule von Chartres beeinflusst, die den Erkenntnissen der weltlichen Wissenschaften aufgeschlossen gegenüberstand. In dieser Schule wurden Texte antiker Philosophen offen rezipiert. Sie stellte zum Beispiel Platons Ideen zur Weltentstehung dem biblischen Schöpfungsbericht gegenüber, wobei sogar die Idee vertreten wurde, dass der Mensch das Produkt einer natürlichen Entwicklung sei – Gedanken zur Evolution also, noch viele Jahrhunderte vor Charles Darwin. Aber auch in der Ethik wurden Texte lateinischer Philosophen aufgegriffen und fruchtbar gemacht – oft unter dem Vorwand, daran Übungen in Grammatik durchzuführen. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Merken

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Woher wissen wir etwas über den Beginn des Universums?

Hat das Universum als heißer Urknall begonnen oder taut es aus einem extrem kalten und fast statischen Zustand langsam auf? Prof. Dr. Christof Wetterich, Physiker an der Universität Heidelberg, hat einen theoretischen Ansatz entwickelt, der das seit fast 100 Jahren gängige Standardmodell der kosmischen Expansion durch ein alternatives Bild ergänzt. Die Urexplosion hat danach nicht vor 13,8 Milliarden Jahren stattgefunden – der „Beginn des Universums“ dehnt sich vielmehr über einen unendlich langen Zeitraum in der Vergangenheit aus. Dabei nimmt die Masse aller Teilchen stetig zu. Statt zu expandieren, schrumpft das Universum über ausgedehnte Zeitabschnitte, wie der Heidelberger Wissenschaftler erläutert.

Den „Beginn des Universums“ beschreiben Kosmologen zumeist als Urknall. Je näher man zeitlich an den Urknall heranrückt, desto stärker krümmt sich die Geometrie von Raum und Zeit. Physiker nennen dies eine Singularität – der Begriff bezeichnet Gegebenheiten, deren physikalische Gesetze nicht definiert sind. Im Fall des Urknalls wird die Krümmung der Raumzeit unendlich groß. Kurz nach dem Urknall war das Universum extrem heiß und dicht. Aber auch ein anderes „Bild“ ist nach den Worten von Prof. Wetterich möglich: Wenn die Massen aller Elementarteilchen mit der Zeit wachsen und die Gravitationskraft schwächer wird, so könnte das Universum auch extrem kalt und langsam begonnen haben. Danach hat das Universum immer schon bestanden, und der früheste Zustand war fast statisch. Die Urexplosion dehnt sich über einen unendlich langen Zeitraum in der Vergangenheit aus. Der Wissenschaftler vom Institut für Theoretische Physik geht davon aus, dass sich die ersten heute indirekt beobachtbaren „Ereignisse“ vor 50 Billionen Jahren zugetragen haben – und nicht im Milliardstel eines Milliardstels einer Milliardstel Sekunde nach dem Urknall. „Eine Singularität gibt es in diesem neuen Bild des Kosmos nicht mehr“, so Prof. Wetterich.

Die Hypothese von Prof. Wetterich beruht auf einem Modell, das die Dunkle Energie und das frühe „inflationäre Universum“ durch ein einziges zeitlich veränderliches Skalarfeld erklärt. Danach wachsen alle Massen mit dem Wert dieses Feldes. „Dies erinnert an das kürzlich in Genf entdeckte Higgs-Boson. Dieses Elementarteilchen hat die Physiker in der Vorstellung bestätigt, dass Teilchenmassen von Feldwerten abhängen und damit veränderlich sind“, erläutert der Heidelberger Wissenschaftler. In Wetterichs Ansatz sind alle Massen proportional zum Wert des sogenannten Kosmonfelds, der im Laufe der kosmologischen Evolution zunimmt. „Natürliche Konsequenz dieses Modells ist das Bild eines Universums, das sich sehr langsam aus einem extrem kalten Zustand entwickelt und dabei über lange Zeitabschnitte schrumpft anstatt zu expandieren“, so Prof. Wetterich.

Das bisherige Bild des Urknalls wird damit allerdings nicht „ungültig“, wie Prof. Wetterich sagt. „Physiker sind es gewohnt, beobachtete Tatsachen in verschiedenen Bildern zu beschreiben.“ So kann Licht sowohl durch Teilchen als auch als Welle dargestellt werden. Wie der Heidelberger Wissenschaftler erläutert, lässt sich sein Modell äquivalent im Bild des Urknalls beschreiben. „Dies ist sehr nützlich für viele praktische Vorhersagen zu den Konsequenzen, die sich aus diesem neuen theoretischen Ansatz ergeben. Stellt man allerdings die Frage nach dem ,Beginn‘ des Universums, so scheint die Beschreibung ohne Singularität eine Reihe von Vorteilen zu bieten“, betont Prof. Wetterich. „Und für das oft geäußerte Unbehagen, dass es doch auch vor dem Urknall etwas gegeben haben muss, gibt es in der neuen Beschreibung keine Grundlage mehr.“

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Generalangriff der Philosophie auf die naturwissenschaftliche Weltsicht

Der amerikanische Philosoph Thomas Nagel bläst in seinem neuen Buch mit dem Titel „Geist und Kosmos“ (ISBN 978-3518586013 ) zum Generalangriff auf die etablierte naturwissenschaftliche Weltsicht. Ihr Problem, so seine These, ist grundsätzlicher Natur: Das, was den menschlichen Geist auszeichnet – Bewusstsein, Denken und Werte –, lässt sich nicht reduzieren, schon gar nicht auf überzeitliche physikalische Gesetze.

Hat Thomas Nagel recht oder passt seine eigene Weltsicht nicht zur Realität?

Zur Beantwortung der Frage möchte ich hier mein eigenes Weltbild als Naturwissenschaftler kurz skizzieren. Mein Weg zur Erklärung von Information, Bewusstsein, Sinn, Bedeutung, aber auch Dingen wie Krankheit oder die Phänomene der Quantenphysik, basiert auf einer strikten Trennung der abstrakten geistigen von der physikalischen Welt, da jede Vermischung beider Welten zu Ergebnissen führt, die weder real sind noch zur Naturwissenschaft gehören, sondern allein in der abstrakten geistigen Welt angesiedelt sind.

Beispielsweise gehören mathematische Formeln, exakte geometrische Formen, Gottheiten oder “unmögliche Dinge” wie eckige Kreise und eierlegende Wollmilchsäue zur abstrakten geistigen Welt. Ein Großteil der Objekte der Philosophie gehört dorthin. In der geistigen Welt existiert alles, was man nur denken kann.

Zum Bereich der realen physikalischen Welt gehört alles, was sich prinzipiell messen oder beobachten lässt, d. h. Wechselwirkungen mit anderen Objekten eingeht. Das Kriterium “Wechselwirkungen” hilft uns zu unterscheiden, was in die eine, was in die andere Welt gehört. Beispielsweise können eierlegende Wollmilchsäue in der freien Natur nicht fotografiert werden, d.h. sie können keine Photonen aussenden, die zu Wechselwirkungen mit dem Foto-Chip führen. Würde jemand mit einem Fotoapparat losziehen, um Bilder von der Wollmilchsau-Spezies zu schießen, würde man ihn zu Recht für dumm oder verrückt erklären, weil er die Realität nicht von der geistigen Welt zu unterscheiden vermag. Wenn es allerdings um die Anbetung von Gottheiten geht, dann ist die Gemeinschaft der Gläubigen geneigt, die Entitäten ihres eigenen Glaubens für real zu halten, die der Andersgläubigen aber für irreal.

Wie Schrödingers Katze die abstrakte mit der realen Welt vermischt

Die Vermischung von realer und geistiger Welt findet man nicht nur im geisteswissenschaftlichen oder theologischen Bereich, sondern genauso bei jenen Quantenphysikern, die Schrödingers Wellenfunktion als eine Beschreibung der Wirklichkeit ansehen. Zur Erinnerung: Schrödingers Wellenfunktion ist eine mathematische Formel zur Beschreibung des Zustands von Quanten vor ihrer Messung. Wäre die Wellenfunktion eine Beschreibung der Wirklichkeit, dann wäre Schrödingers Katze, die in einem Gedankenexperiment zusammen mit einem Mordinstrument in eine Kiste eingesperrt ist, vor dem Öffnen der Kiste gleichzeitig tot und lebendig.

Schrödingers Katze ist ein gutes Beispiel für die Vermischung der abstrakten Welt mit der realen physikalischen (siehe auch: „Der Widerhall des Urknalls“ ISBN 978-3848212255, S. 113). Die Wellenfunktion gehört als mathematische Formel zur abstrakten geistigen Welt, die Katze in der Kiste zur realen physikalischen. Die Vermischung der beiden Welten in einer physikalischen Theorie führt zu etwas, was in der realen Welt völliger Unsinn, in der abstrakten geistigen Welt ein erlaubtes gedankliches Konstrukt ist. Man muss sich nur im Klaren darüber sein, dass die Ergebnisse der Theorien, die beide Welten miteinander vermischen, nicht zur realen Welt gehören. Um es noch mal ganz deutlich zu sagen: Die gleichzeitig tote und lebendige Katze von Schrödingers Gedankenexperiment gehört nicht der realen Welt an.

Wie abstrakte und reale Welt miteinander verbunden sind

Zwischen der abstrakten und der physikalischen Welt gibt es nur eine Verbindung: Das sind die Prozesse. Dabei definiere ich einen Prozess in Übereinstimmung mit der DIN IEC 60050-351 als die Gesamtheit von aufeinander einwirkenden Vorgängen in einem System, durch die Materie, Energie oder Information umgeformt, transportiert oder gespeichert wird.“ Beispielsweise sind Computerprogramme Prozesse. Der Programmcode gehört zur abstrakten geistigen Welt. Die Ausführung des Programmcodes gehört zur physikalischen Welt, weil jede Durchführung eines Programmschritts eine Wechselwirkung darstellt.

Thomas Nagel ist wohl nicht bewusst, dass Prozesse die Verbindung zwischen der abstrakten geistigen und der realen Welt darstellen. Es mag völlig richtig sein, dass “Werte” nicht zur naturwissenschaftlichen Welt gehören, doch wenn Werte (= Ziele) in Prozesse (= Programme) eingebaut werden, dann verbinden sie die abstrakte Welt mit der physikalischen. Das Gleiche gilt für “Denken”. Denken formt Information um oder speichert sie. Denken kann deshalb als ein Prozess angesehen werden und der Denkprozess verbindet die abstrakte mit der realen Welt, indem etwas ausgeführt wird. Abstrakte Information wird umgeformt und physikalisch gespeichert.

Was ist aber mit dem Bewusstsein? Allgemein wird Bewusstsein als eine Entität angesehen, die je nachdem, aus welcher Fakultät der Wissenschaftler stammt, entweder einer nicht fassbaren, d. h. abstrakten, oder einer realen materialistischen, d. h. physikalischen Welt zugeordnet wird. Theologen und Geisteswissenschaftler neigen eher dazu, Bewusstsein als eine Entität der geistigen Ebene anzusehen. Dagegen ist nach meiner Überzeugung Bewusstsein ein Prozess (wie ich unter anderem in meinem Büchlein mit dem Titel “Synthetisches Bewusstsein ISBN 978-3842368033”) beschrieben habe. Damit verbindet es beide Welten, die abstrakte geistige und die physikalische.

Nagel hat insoweit recht, dass alle drei Entitäten, die den menschlichen Geist auszeichnen, sich nicht auf physikalische Gesetze reduzieren lassen. Aber sie lassen sich auf Prozesse reduzieren, die eine Verbindung zwischen der physikalischen und der abstrakten Welt darstellen.

Kann Krankheit auf überzeitliche physikalische Gesetze reduziert werden?

Wir können das bisher Gesagte anwenden und testen, indem wir einmal untersuchen, wo Krankheit einzuordnen ist. Ist Krankheit etwas abstrakt Geistiges oder ist es eine Entität der naturwissenschaftlichen Weltsicht? Nagel würde jetzt sagen: „Krankheit lässt sich nicht reduzieren auf überzeitliche physikalische Gesetze.“

Ich sehe Krankheit als ein Abweichen von der Regelhaftigkeit der Lebensvorgänge. Das Ausmaß dieses Abweichens bestimmt, ob es sich um Krankheit handelt oder nicht. Das Ausmaß ist ein abstrakter geistiger Wert. Lebensvorgänge sind Prozesse, denn in einem biologischen System, auf das sich der jeweilige Lebensvorgang bezieht, wird Materie, Energie oder Information umgeformt, transportiert oder gespeichert. Wenn es bei einem der Systemelemente zu Abweichungen kommt, dann kann das als Krankheit gelten. Weil Lebensvorgänge Prozesse sind, sehe ich Krankheit ebenfalls als einen Prozess. Da in Prozessen regelmäßig Information umgeformt, transportiert oder gespeichert wird, liegt in der Beobachtung und Einordnung der sich verändernden Information einer der Schlüssel zum tieferen Verständnis für das Wesen der Krankheit. Wie Information sich auf den Krankheitsprozess auswirkt, werde ich in einem meiner nächsten Beiträge untersuchen. – Klaus-Dieter Sedlacek

Buchtipps: