Schlagwort-Archive: Quanten

Generalangriff der Philosophie auf die naturwissenschaftliche Weltsicht

Der amerikanische Philosoph Thomas Nagel bläst in seinem neuen Buch mit dem Titel „Geist und Kosmos“ (ISBN 978-3518586013 ) zum Generalangriff auf die etablierte naturwissenschaftliche Weltsicht. Ihr Problem, so seine These, ist grundsätzlicher Natur: Das, was den menschlichen Geist auszeichnet – Bewusstsein, Denken und Werte –, lässt sich nicht reduzieren, schon gar nicht auf überzeitliche physikalische Gesetze.

Hat Thomas Nagel recht oder passt seine eigene Weltsicht nicht zur Realität?

Zur Beantwortung der Frage möchte ich hier mein eigenes Weltbild als Naturwissenschaftler kurz skizzieren. Mein Weg zur Erklärung von Information, Bewusstsein, Sinn, Bedeutung, aber auch Dingen wie Krankheit oder die Phänomene der Quantenphysik, basiert auf einer strikten Trennung der abstrakten geistigen von der physikalischen Welt, da jede Vermischung beider Welten zu Ergebnissen führt, die weder real sind noch zur Naturwissenschaft gehören, sondern allein in der abstrakten geistigen Welt angesiedelt sind.

Beispielsweise gehören mathematische Formeln, exakte geometrische Formen, Gottheiten oder “unmögliche Dinge” wie eckige Kreise und eierlegende Wollmilchsäue zur abstrakten geistigen Welt. Ein Großteil der Objekte der Philosophie gehört dorthin. In der geistigen Welt existiert alles, was man nur denken kann.

Zum Bereich der realen physikalischen Welt gehört alles, was sich prinzipiell messen oder beobachten lässt, d. h. Wechselwirkungen mit anderen Objekten eingeht. Das Kriterium “Wechselwirkungen” hilft uns zu unterscheiden, was in die eine, was in die andere Welt gehört. Beispielsweise können eierlegende Wollmilchsäue in der freien Natur nicht fotografiert werden, d.h. sie können keine Photonen aussenden, die zu Wechselwirkungen mit dem Foto-Chip führen. Würde jemand mit einem Fotoapparat losziehen, um Bilder von der Wollmilchsau-Spezies zu schießen, würde man ihn zu Recht für dumm oder verrückt erklären, weil er die Realität nicht von der geistigen Welt zu unterscheiden vermag. Wenn es allerdings um die Anbetung von Gottheiten geht, dann ist die Gemeinschaft der Gläubigen geneigt, die Entitäten ihres eigenen Glaubens für real zu halten, die der Andersgläubigen aber für irreal.

Wie Schrödingers Katze die abstrakte mit der realen Welt vermischt

Die Vermischung von realer und geistiger Welt findet man nicht nur im geisteswissenschaftlichen oder theologischen Bereich, sondern genauso bei jenen Quantenphysikern, die Schrödingers Wellenfunktion als eine Beschreibung der Wirklichkeit ansehen. Zur Erinnerung: Schrödingers Wellenfunktion ist eine mathematische Formel zur Beschreibung des Zustands von Quanten vor ihrer Messung. Wäre die Wellenfunktion eine Beschreibung der Wirklichkeit, dann wäre Schrödingers Katze, die in einem Gedankenexperiment zusammen mit einem Mordinstrument in eine Kiste eingesperrt ist, vor dem Öffnen der Kiste gleichzeitig tot und lebendig.

Schrödingers Katze ist ein gutes Beispiel für die Vermischung der abstrakten Welt mit der realen physikalischen (siehe auch: „Der Widerhall des Urknalls“ ISBN 978-3848212255, S. 113). Die Wellenfunktion gehört als mathematische Formel zur abstrakten geistigen Welt, die Katze in der Kiste zur realen physikalischen. Die Vermischung der beiden Welten in einer physikalischen Theorie führt zu etwas, was in der realen Welt völliger Unsinn, in der abstrakten geistigen Welt ein erlaubtes gedankliches Konstrukt ist. Man muss sich nur im Klaren darüber sein, dass die Ergebnisse der Theorien, die beide Welten miteinander vermischen, nicht zur realen Welt gehören. Um es noch mal ganz deutlich zu sagen: Die gleichzeitig tote und lebendige Katze von Schrödingers Gedankenexperiment gehört nicht der realen Welt an.

Wie abstrakte und reale Welt miteinander verbunden sind

Zwischen der abstrakten und der physikalischen Welt gibt es nur eine Verbindung: Das sind die Prozesse. Dabei definiere ich einen Prozess in Übereinstimmung mit der DIN IEC 60050-351 als die Gesamtheit von aufeinander einwirkenden Vorgängen in einem System, durch die Materie, Energie oder Information umgeformt, transportiert oder gespeichert wird.“ Beispielsweise sind Computerprogramme Prozesse. Der Programmcode gehört zur abstrakten geistigen Welt. Die Ausführung des Programmcodes gehört zur physikalischen Welt, weil jede Durchführung eines Programmschritts eine Wechselwirkung darstellt.

Thomas Nagel ist wohl nicht bewusst, dass Prozesse die Verbindung zwischen der abstrakten geistigen und der realen Welt darstellen. Es mag völlig richtig sein, dass “Werte” nicht zur naturwissenschaftlichen Welt gehören, doch wenn Werte (= Ziele) in Prozesse (= Programme) eingebaut werden, dann verbinden sie die abstrakte Welt mit der physikalischen. Das Gleiche gilt für “Denken”. Denken formt Information um oder speichert sie. Denken kann deshalb als ein Prozess angesehen werden und der Denkprozess verbindet die abstrakte mit der realen Welt, indem etwas ausgeführt wird. Abstrakte Information wird umgeformt und physikalisch gespeichert.

Was ist aber mit dem Bewusstsein? Allgemein wird Bewusstsein als eine Entität angesehen, die je nachdem, aus welcher Fakultät der Wissenschaftler stammt, entweder einer nicht fassbaren, d. h. abstrakten, oder einer realen materialistischen, d. h. physikalischen Welt zugeordnet wird. Theologen und Geisteswissenschaftler neigen eher dazu, Bewusstsein als eine Entität der geistigen Ebene anzusehen. Dagegen ist nach meiner Überzeugung Bewusstsein ein Prozess (wie ich unter anderem in meinem Büchlein mit dem Titel “Synthetisches Bewusstsein ISBN 978-3842368033”) beschrieben habe. Damit verbindet es beide Welten, die abstrakte geistige und die physikalische.

Nagel hat insoweit recht, dass alle drei Entitäten, die den menschlichen Geist auszeichnen, sich nicht auf physikalische Gesetze reduzieren lassen. Aber sie lassen sich auf Prozesse reduzieren, die eine Verbindung zwischen der physikalischen und der abstrakten Welt darstellen.

Kann Krankheit auf überzeitliche physikalische Gesetze reduziert werden?

Wir können das bisher Gesagte anwenden und testen, indem wir einmal untersuchen, wo Krankheit einzuordnen ist. Ist Krankheit etwas abstrakt Geistiges oder ist es eine Entität der naturwissenschaftlichen Weltsicht? Nagel würde jetzt sagen: „Krankheit lässt sich nicht reduzieren auf überzeitliche physikalische Gesetze.“

Ich sehe Krankheit als ein Abweichen von der Regelhaftigkeit der Lebensvorgänge. Das Ausmaß dieses Abweichens bestimmt, ob es sich um Krankheit handelt oder nicht. Das Ausmaß ist ein abstrakter geistiger Wert. Lebensvorgänge sind Prozesse, denn in einem biologischen System, auf das sich der jeweilige Lebensvorgang bezieht, wird Materie, Energie oder Information umgeformt, transportiert oder gespeichert. Wenn es bei einem der Systemelemente zu Abweichungen kommt, dann kann das als Krankheit gelten. Weil Lebensvorgänge Prozesse sind, sehe ich Krankheit ebenfalls als einen Prozess. Da in Prozessen regelmäßig Information umgeformt, transportiert oder gespeichert wird, liegt in der Beobachtung und Einordnung der sich verändernden Information einer der Schlüssel zum tieferen Verständnis für das Wesen der Krankheit. Wie Information sich auf den Krankheitsprozess auswirkt, werde ich in einem meiner nächsten Beiträge untersuchen. – Klaus-Dieter Sedlacek

Buchtipps:

 

Künstliche Fotosynthese: Lösung aller Energieprobleme?

Heidelberg. Die Sonne ist eine unerschöpfliche und zudem saubere Energiequelle. Fotovoltaikanlagen und Solarthermiekraftwerke zapfen sie bereits an und gewinnen aus Sonnenlicht Strom. Der ist jedoch nur sehr begrenzt speicherbar und muss sofort verbraucht werden. Sein Transport über weite Strecken ist zudem mit großen Verlusten verbunden. Nur über den Umweg der Wasserelektrolyse lässt sich elektrischer Strom in den breiter einsetzbaren Energieträger Wasserstoff umwandeln, was aber sehr ineffektiv ist.

Eine wesentlich elegantere Lösung macht uns die Natur seit jeher vor: die Fotosynthese. Dabei erzeugen Pflanzen, Algen und gewisse Bakterien mit Hilfe von Sonnenlicht aus Kohlendioxid und Wasser direkt energiereiche Zuckermoleküle. Schon seit einiger Zeit versuchen Forscher deshalb, den Vorgang künstlich nachzuahmen. Dabei geht es ihnen vor allem um den ersten Schritt der Fotosynthese: die Spaltung von Wasser in Wasserstoff und Sauerstoff.

Die bisher erzielten Erfolge sind beachtlich. So präsentierte Daniel Nocera vom Massachussetts Institute of Technology vor zwei Jahren ein “künstliches Blatt”. Es besteht aus einer Solarzelle, in der auftreffendes Sonnenlicht freie Elektronen und “Löcher” (Elektronenfehlstellen) erzeugt. Die dem Licht zugewandte Seite ist mit einem cobalthaltigen Katalysator beschichtet, der mit Hilfe der Löcher aus Wasser Sauerstoff freisetzt. Die zurückbleibenden Protonen wandern zur anderen Seite und werden dort von einer Legierung aus Nickel, Molybdän und Zink mit Hilfe der Elektronen zu Wasserstoff reduziert. Der Wirkungsgrad liegt mit 2,5 bis 4,7 Prozent – je nach genauer Konfiguration – schon recht hoch. Pflanzen verwerten das auftreffende Sonnenlicht sogar nur zu 0,3 Prozent.

Allerdings ist dieses “Blatt” wegen der enthaltenen Metalle noch ziemlich teuer und auch nicht lange beständig. Markus Antonietti vom Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Golm hat sich deshalb auf ein anderes Material verlegt, das nicht nur sehr stabil, sondern auch einfach und preiswert herstellbar ist: graphitisches Kohlenstoffnitrid. Schon Justus Liebig kannte die Substanz im 19. Jahrhundert. Sie ist entfernt mit dem Chlorophyll des Blattgrüns verwandt und ähnelt stark dem Graphen – einer maschendrahtartigen Anordnung von Kohlenstoffatomen, der viele eine große Zukunft in der Elektronik vorhersagen.

Kohlenstoffnitrid als solches ist allerdings nicht sehr aktiv, was unter anderem an seinem zu geringen Verhältnis von Oberfläche zu Volumen liegt. Wie Antonietti in Spektrum der Wissenschaft berichtet, konnte seine Gruppe aber bereits eine Steigerung um das Zehnfache erreichen, indem sie gezielt die Porosität des Materials erhöhte.

Eine weitere Verbesserung ließ sich durch Dotieren mit Schwefel oder Barbitursäure erreichen. Auf diese Weise konnten die Forscher die Quantenausbeute der Oxidation von Wasser zu Protonen und Sauerstoff für violette Strahlung einer Wellenlänge von 440 Nanometern immerhin auf 5,7 Prozent steigern. Hilfreich war auch die Zugabe von Nanoteilchen aus Cobaltoxid. Dadurch erhöhte sich die Quantenausbeute für die Wasserspaltung insgesamt auf 1,1 Prozent.

Alles in allem sehen die bisherigen Ergebnisse also ermutigend aus. Zwar veranschlagt Antonietti bis zur praktischen Einsatzreife seines Systems noch mindestens 20 Jahre. Doch die Aussichten wären verlockend. Wenn sich mit künstlichen Fotosynthesesystemen 10 Prozent der Solarenergie nutzen ließen, müssten sie nur 0,16 Prozent der Erdoberfläche bedecken, um den für 2030 vorausgesagten globalen Energiebedarf von 20 Terawattstunden zu decken. Als Standorte kämen dabei in erster Linie Wüsten in Frage, wo die Sonne fast immer scheint und keine Konkurrenz zu Agrarnutzflächen besteht. Ein Zehntel der Sahara, die 1,76 Prozent der Erdoberfläche einnimmt, würde bereits genügen.

Wie heutige Solarzellen ließen sich künstliche Fotosynthesesysteme aber auch auf Dächern installieren. Bei einer Lichtausbeute von 10 Prozent könnten sie beispielsweise 300 Tonnen Methanol pro Hektar und Jahr liefern. “Wären nur 100 Quadratmeter des eigenen Grundstücks damit bedeckt, bräuchte selbst ein leidenschaftlicher Autofahrer bei heutigem Treibstoffverbrauch nie mehr zur Tankstelle”, erklärt Antonietti.  (Quelle: Spektrum der Wissenschaft, September 2013)

Verrückte Quanten bereiten klassischer Physik Niederlage

Quantenphysikalische Teilchen können an mehreren Orten gleichzeitig sein und hinterlassen dabei sogar Spuren. Das haben Physiker der Goethe-Universität in einem verblüffenden Experiment nachgewiesen, das Albert Einstein vor mehr als 80 Jahren anregte. Damals konnte sein wichtigster Kontrahent, der Physiker Niels Bohr, ihm lediglich Argumente entgegensetzten. Jetzt geben die neuen Experimente dem Dänen Recht.

FRANKFURT. Einstein hat Zeit seines Lebens die quantenphysikalische Aussage bekämpft, dass Teilchen – solange man sie nicht beobachtet – an mehreren Orten gleichzeitig sein können. Sein wichtigstes Gegenargument war: Die geisterhaften Teilchen müssten durch Zusammenstöße mit anderen Teilchen entlang ihrer Bahn eine sichtbare Spur hinterlassen. Eben diese Spur hat Dr. Lothar Schmidt in der Arbeitsgruppe von Prof. Reinhard Dörner am Institut für Kernphysik der Goethe-Universität nun gemessen.

Das klassische Experiment, das auch heutigen Physikstudenten noch Kopfzerbrechen bereitet, ist die Streuung quantenphysikalischer Teilchen am Doppelspalt. Solange es unbeobachtet ist, scheint jedes einzelne Teilchen durch beide Schlitze des Spalts zu gehen. Es bildet – ähnlich wie Wasserwellen – ein Interferenzmuster hinter dem Spalt. Dieses verschwindet aber, sobald man eine Information über den Weg des Teilchens zu gewinnen versucht.

Einstein argumentierte, man müsse gar nicht nachsehen, wo das Teilchen ist, denn es verrate seinen Ort indirekt, indem es beim Passieren des Spalts einen Impuls überträgt: Ginge es durch den linken Schlitz, erfahre das Beugungsgitter einen minimalen Stoß nach links, und entsprechend nach rechts, wenn es durch den rechten Spalt geht. Bohr konterte, auch das Beugungsgitter verhalte sich wie ein quantenmechanisches System, das heißt, es müsse gleichzeitig in beide Richtungen abgelenkt werden.

Dass diese verrückt klingende Vermutung tatsächlich richtig ist, haben Dörner und seine Mitarbeiter jetzt durch die Streuung von Helium-Atomen an einem „Doppelspalt“ nachgewiesen. Mit den Modellen der klassischen Physik lassen sich die gemessenen Ergebnisse nicht beschreiben. „Da wir bei dieser Versuchsanordnung nicht beobachten, durch welches Loch das Teilchen gegangen ist, passiert genau das, was Bohr vorhergesagt hat: Der Doppelspalt rotiert gleichzeitig mit und gegen den Uhrzeigersinn“, erklärt Schmidt. (Quelle: idw).

Buchtipps:

 

Durchbruch bei Quantenteleportation: Quantenbits auf Knopfdruck übertragen

Deterministische Quantenteleportation eines photonischen Quantenbits. Jedes Qubit, das von links in den Teleporter fliegt, verlässt den Teleporter rechts mit einem Qualitätsverlust von nur etwa 20 Prozent – ein Wert, der klassisch, d.h. ohne Verschränkung, unerreichbar ist. Quelle: University of Tokyo
Deterministische Quantenteleportation eines photonischen Quantenbits. Jedes Qubit, das von links in den Teleporter fliegt, verlässt den Teleporter rechts mit einem Qualitätsverlust von nur etwa 20 Prozent – ein Wert, der klassisch, d.h. ohne Verschränkung, unerreichbar ist.
Quelle: University of Tokyo

Mithilfe quantenmechanischer Verschränkung räumlich getrennter Lichtfelder ist es Wissenschaftlern aus Tokio und Mainz gelungen, photonische Quantenbits außerordentlich zuverlässig zu teleportieren. Rund 15 Jahre nach den ersten Versuchen auf dem Gebiet der optischen Teleportation ist damit ein entscheidender Durchbruch gelungen.

Der Erfolg des in Tokio durchgeführten Experiments beruht auf einer Hybridtechnik, bei der zwei konzeptionell verschiedene, bisher unvereinbare Ansätze verknüpft werden. „Diskrete, digitale optische Quanteninformation kann dabei kontinuierlich und damit sozusagen auf Knopfdruck übertragen werden“, erklärt Univ.-Prof. Dr. Peter van Loock von der Johannes Gutenberg-Universität Mainz (JGU). Van Loock hat als Physik-Theoretiker die experimentellen Physiker um Akira Furusawa von der Universität Tokio beraten, wie sie den Teleportationsversuch am effizientesten durchführen und eine erfolgreiche Quantenteleportation letztlich auch verifizieren können. Die Forschungsarbeiten wurden in dem renommierten Fachmagazin Nature am 15. August 2013 veröffentlicht.

Die Quantenteleportation ermöglicht den Transfer von beliebigen Quantenzuständen von einem Sender, als Alice bezeichnet, zu einem räumlich entfernten Empfänger, genannt Bob. Voraussetzung ist, dass sich Alice und Bob zunächst einen verschränkten Quantenzustand, z.B. in Form von verschränkten Photonen, über die Distanz teilen. Die Quantenteleportation ist von fundamentaler Bedeutung für die Verarbeitung von Quanteninformation (Quantencomputing) und die Quantenkommunikation. Insbesondere für die Quantenkommunikation gelten Photonen als optimale Informationsträger, da sie eine Signalübertragung mit Lichtgeschwindigkeit ermöglichen. Mit einem Photon kann man ein Quantenbit oder Qubit darstellen – analog zu einem Bit in der klassischen Informationsverarbeitung. Man spricht dann von „fliegenden Quantenbits“.

Erste Versuche zur Teleportation von einzelnen Photonen, die auch als Lichtteilchen bezeichnet werden, gehen auf den Wiener Physiker Anton Zeilinger zurück. In der Zwischenzeit wurden verschiedene Experimente durchgeführt, allerdings stieß die Teleportation eines photonischen Quantenbits mithilfe der herkömmlichen Methoden aufgrund von experimentellen Unzulänglichkeiten und grundsätzlichen Prinzipien an Grenzen.

Der Schlüssel für das Experiment in Tokio ist eine Hybridtechnik. Mit ihrer Hilfe ist es gelungen, experimentell eine vollkommen deterministische Quantenteleportation von photonischen Qubits zu erzielen, bei der die Teleportation mit außerordentlich hoher Zuverlässigkeit erfolgt. Die Genauigkeit der Übertragung liegt bei 79 bis 82 Prozent für vier unterschiedliche Qubits. Außerdem konnten die Qubits selbst bei einem geringen Grad der Verschränkung wesentlich effizienter teleportiert werden als in früheren Experimenten.

Verschränkung-on-Demand durch Lichtquetschung

Der Begriff der Verschränkung geht auf Erwin Schrödinger zurück und bezeichnet den Befund, dass zwei Quantensysteme, beispielsweise zwei Lichtteilchen, einen gemeinsamen Zustand einnehmen und in ihrem Verhalten auf stärkere Weise voneinander abhängen als es klassisch möglich ist. Bei dem Tokioter Experiment wurde durch die Verschränkung von vielen Photonen mit vielen Photonen eine kontinuierliche Verschränkung erzeugt, bei der nicht nur einzelne wenige Lichtteilchen, sondern die kompletten Amplituden und Phasen zweier Lichtfelder miteinander quantenkorreliert sind. Bisherige Experimente hatten dagegen jeweils nur ein einzelnes Photon mit einem anderen einzelnen Photon verschränkt – eine weniger effiziente Lösung. „Die Verschränkung von Photonen hat in dem Tokio-Experiment sehr gut funktioniert – praktisch auf Knopfdruck, sobald der Laser eingeschaltet wurde“, beschreibt van Loock, Professor für Theorie der Quantenoptik und Quanteninformation, den Versuch. Erreicht wurde diese kontinuierliche Verschränkung durch sogenanntes gequetschtes Licht, das im Phasenraum des Lichtfeldes die Form einer Ellipse annimmt. Ist die Verschränkung erzeugt, kann ein drittes Lichtfeld beim Sender angeheftet werden. Von dort können dann im Prinzip beliebige und beliebig viele Zustände an den Empfänger übertragen werden. „In unserem Experiment waren es genau vier ausreichend repräsentative Testzustände, die unter Benutzung der Verschränkung von Alice übermittelt wurden und bei Bob entsprechende Zustände erzeugt haben. Dank der kontinuierlichen Verschränkung ist es möglich, dass die photonischen Qubits deterministisch, also bei jedem Versuch, zu Bob übertragen werden“, ergänzt van Loock.

Frühere Experimente zur optischen Teleportation waren unterschiedlich angelegt und bis heute inkompatibel. Von physiktheoretischer Seite wurde zwar angenommen, dass die beiden unterschiedlichen Ansätze, die diskrete und die kontinuierliche Welt, zu verbinden sind. Dass es nun im Experiment mit der Hybridtechnik tatsächlich gelungen ist, stellt einen technologischen Durchbruch dar. „Jetzt nähern sich die beiden Welten an“, so van Loock.
( Quelle: idw. Veröffentlichung: Shuntaro Takeda et al. Deterministic quantum teleportation of photonic quantum bits by a hybrid technique. Nature, 15. August 2013. DOI: 10.1038/nature12366)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Was ist das Wesen von Raum und Zeit?

Grundfragen der Naturwissenschaft:

Was ist Realität? Warum läuft Zeit immer nur in eine Richtung? Was bedeutet Kausalität, also die eindeutige Zuordnung von Ursache und Wirkung? Antworten auf diese Fragen der modernen Naturphilosophie liefert die Quantenphysik. Aber auch in der Biologie spielt beispielsweise die Frage nach der Kausalität eine grundlegende Rolle.

Allerdings wirft die Frage nach der Kausalität in der Genetik Fragen auf, die sich nur philosophisch beantworten lassen. So fand das Problem, das die Rolle der Gene im Organismus betrifft, erst kürzlich eine befriedigende Lösung. Gene gelten als Informationsträger, die den Aufbau der Proteine in einem Organismus bestimmen. Zur Herstellung von Eiweißstoffen bedarf es jedoch einer äußerst komplexen biochemischen Maschinerie, zu der auch so genannte Ribosome sowie Hunderte von Enzymen gehören.

Deshalb schreibt die Entwicklungssystemtheorie allen Bestandteilen einer lebenden Zelle die gleiche kausale Rolle zu. Diese Ansicht lässt sich rein empirisch (also nur durch Experimente) nicht widerlegen, sondern nur durch philosophische Überlegungen. Die Lösung des Problems gelang durch Unterscheidung zwischen aktuellen und potenziellen Einflussgrößen: Die einen variieren tatsächlich, die anderen könnten es zwar, tun es aber nicht. Zusätzlich ist es nötig, den Begriff der so genannten kausalen Spezifität einzuführen. Sie ist erfüllt, wenn jede Ursache eine eindeutige Wirkung hat und jede Wirkung nicht zu viele verschiedene Ursachen. Mit diesen beiden Begriffen lässt sich die besondere kausale Rolle der Gene bei der Proteinsynthese begründen.

Ein Beispiel betrifft die Ontogenese: die Entwicklung vom Embryo zum ausgewachsenen Organismus. Als Hauptkontrollgene dafür gelten so genannte Homöobox-Gene, die Forscher zuerst bei der Taufliege und später bei vielen anderen Organismen einschließlich des Menschen identifiziert haben. Dabei sind an der Embryonalentwicklung eines Tiers Tausende verschiedener Faktoren beteiligt. Sie beginnt in einer befruchteten Eizelle, die nicht bloß aus Genen besteht, sondern ein chemisch äußerst komplexes Gemisch von diversen Nukleinsäuren, Proteinen, kleineren Molekülen und Fetten ist. Der Einwand “Aber die Gene steuern die Entwicklung” ist aus streng kausaltheoretischer Sicht nicht zulässig; denn “steuern” setzt einen Steuermann voraus – ein absichtlich handelndes Wesen, das es offensichtlich nicht gibt.

Noch tiefer reichen die Fragen in der Physik. Naturphilosophie versucht da nicht weniger als die Grundlagen der Natur zu klären – etwa, was Objekte, Raum und Zeit, Kausalität, Zeitrichtung und Naturgesetze sind. Die Quantenphysik erfordert es, die klassische atomistische Sicht der Natur durch eine holistische Perspektive zu ersetzen. Wie der Übergang von quantenmechanischen Phänomenen zu klassischen Eigenschaften genau abläuft, ist dabei eine offene Frage. (Quelle: Spektrum der Wissenschaft, Juni 2011)

Buchtipp:
Supervereinigung: Wie aus nichts alles entsteht. Ansatz einer großen einheitlichen Feldtheorie

Wie ein Spiegel quantenmechanische Überlagerung erzeugt

Kommt das Licht direkt vom Atom oder von seinem Spiegelbild? Ein Spiegel erzeugt eine quantenmechanische Überlagerung. Copyright: TU Wien

Wer vor einem Spiegel steht, hat sicher kein Problem, sich selbst von seinem Spiegelbild zu unterscheiden. Auf unsere Bewegungsmöglichkeiten hat der Spiegel keinen Einfluss. Bei quantenphysikalischen Teilchen ist das komplizierter. In einer aufsehenerregenden Forschungsarbeit in den Laboren der Universität Heidelberg gelang es Heidelberger Physikern gemeinsam mit Forschern der Technischen Universität München sowie der Technischen Universität Wien, ein Gedankenexperiment von Einstein im Labor weiterzuführen und den Unterschied zwischen einzelnen Teilchen und ihren Spiegelbildern verschwimmen zu lassen. Die Ergebnisse des Experimentes wurden nun im Fachjournal „Nature Physics“ veröffentlicht.

Wenn ein Atom spontan in eine bestimmte Richtung ein Lichtteilchen aussendet, erfährt es einen Rückstoß in die Gegenrichtung. Misst man das Lichtteilchen, kennt man daher auch den Bewegungszustand des Atoms. Das Forscherteam platzierte Atome wenige Millionstel Meter vor einem vergoldeten Spiegel – in diesem Fall gibt es für ein Lichtteilchen, das zum Beobachter gelangt, zwei mögliche Wege: Es kann direkt vom Atom zum Beobachter gekommen sein, oder es wurde in die entgegengesetzte Richtung ausgesandt, ist auf den Spiegel getroffen und dann zum Beobachter gelangt. Wenn man zwischen diesen beiden Fällen nicht unterscheiden kann, befindet sich das Atom in einer Überlagerung beider Wege.

„Bei einem sehr kleinen Abstand zwischen Atom und Spiegel kann zwischen den beiden Möglichkeiten ganz prinzipiell nicht mehr unterschieden werden“, erklärt Jiri Tomkovic, Doktorand in der Arbeitsgruppe von Prof. Dr. Markus Oberthaler an der Universität Heidelberg. Ursprungsteilchen und Spiegelbild sind physikalisch nicht mehr voneinander zu trennen. Das Atom bewegt sich gleichzeitig auf den Spiegel zu und vom Spiegel weg. Was paradox klingt und für makroskopische Teilchen unmöglich ist, kennt man in der Quantenphysik schon lange.

„Diese Unsicherheit über den Bewegungszustand des Atoms bedeutet nicht, dass wir nicht genau genug gemessen haben“, betont Prof. Dr. Jörg Schmiedmayer von der TU Wien. „Das ist eine grundlegende Eigenschaft der Quantenphysik: Das Teilchen befindet sich in beiden Bewegungszuständen gleichzeitig, es ist in einem Überlagerungszustand.“ Im Experiment werden die Bewegungszustände, die das Atom gleichzeitig einnimmt – hin zum Spiegel und weg vom Spiegel – durch sogenannte Bragg-Streuung an einem Gitter aus Laserlicht wieder kombiniert. Dadurch lässt sich beweisen, dass sich das Atom tatsächlich in einem Überlagerungszustand befand.

Dies erinnert an das berühmte Doppelspaltexperiment, in dem ein Teilchen auf eine Platte mit zwei Öffnungen geschossen wird – und aufgrund seiner quantenmechanischen Welleneigenschaften durch beide Öffnungen gleichzeitig tritt. Schon Einstein machte sich darüber Gedanken, dass das nur dann möglich ist, wenn durch keine mögliche Messung entschieden werden kann, welchen Weg das Teilchen genommen hat, auch nicht durch Vermessung von winzigen Bewegungen der Doppelspalt-Platte. Sobald durch irgendein Experiment auch nur theoretisch feststellbar wäre, für welchen Weg sich das Teilchen entschieden hat, ist es vorbei mit der Quanten-Überlagerung. „In unserem Fall spielen die Lichtteilchen eine ähnliche Rolle wie ein Doppelspalt“, meint Prof. Oberthaler von der Universität Heidelberg. „Wenn das Licht prinzipiell darüber Auskunft geben kann, in welche Richtung sich das Atom bewegt, dann ist auch der Zustand des Atoms festgelegt. Nur wenn das grundsätzlich unentscheidbar ist, befindet sich das Atom in einem Überlagerungszustand, der beide Möglichkeiten vereint.“ Und genau diese Unentscheidbarkeit wird durch den Spiegel gewährleistet.

Auszutesten, unter welchen Bedingungen solche Quanten-Überlagerungen zu erkennen sind, ist eine wichtige Forschungsfrage in der Quantenphysik: Nur so lassen sich diese Effekte auch gezielt nutzen. Die Idee für dieses Experiment wurde von Jörg Schmiedmayer und Markus Oberthaler bereits vor einigen Jahren entwickelt. „Das Faszinierende daran ist“, so die Forscher, „die Möglichkeit, einen Überlagerungszustand einfach durch die Anwesenheit eines Spiegels zu erzeugen, ganz ohne Eingriff durch äußere Felder.“ Das Teilchen und sein Spiegelbild geraten ganz von selbst in eine quantenphysikalische Beziehung zueinander – ganz ohne aufwendiges Zutun der Wissenschaftler. (Quelle: idw. Bild: Kommt das Licht direkt vom Atom oder von seinem Spiegelbild? Ein Spiegel erzeugt eine quantenmechanische Überlagerung. Copyright: TU Wien)

Emergenz: Komplexität bestimmt die Welt

Video: Einführungsveranstaltung zur Ringvorlesung “Die Welt des Komplexen: Emergenz, Evolution und Kausalität” am 23.10.2007

FRANKFURT. Komplexität zieht sich als Leitmotiv durch nahezu alle heutigen Naturwissenschaften und gewinnt zunehmend an Bedeutung. Am Anfang der wissenschaftlichen Revolution der Neuzeit stand das Bestreben, das Naturgeschehen durch wenige und möglichst einfache Gesetzmäßigkeiten erfassen und verstehen zu können.

Dieses Programm im Sinne des Reduktionismus war von spektakulären Erfolgen gekrönt und hat die Welt entscheidend verändert. Die Suche nach fundamentalen Bausteinen und Gesetzmäßigkeiten hat auch heute nichts von ihrer Bedeutung verloren. Dennoch ist nicht zu übersehen, dass die real existierenden Objekte der Naturbeschreibung in der Regel alles andere als einfach sind. Nahezu überall stößt man auf komplexe Systeme, die sich aus miteinander wechselwirkenden Subeinheiten zusammensetzen und bei denen das Ganze mehr ist, als die Summe seiner Teile. Das Verständnis derartiger komplexer Systeme, charakterisiert durch Begriffe wie Strukturbildung, Selbstorganisation und Emergenz neuer Eigenschaften, gehört zu den zentralen Herausforderungen an die modernen Wissenschaften.

Die Biologie steht vor der Herausforderung, die Funktion und die Organisationsprinzipien der aus Evolutionsprozessen hervorgegangenen komplexen Systeme im lebenden Organismus aufzuklären. Dies gilt für die Funktion einzelner Biomoleküle oder Molekülkomplexe und für molekulare Netzwerke und Regelkreise innerhalb der Zelle (metabolische und Proteom-Genom-Netzwerke), für das Zusammenspiel von Zellen in Organen oder für das Immunsystem.

In den Neurowissenschaften steht das wohl komplexeste in der Natur existierende System im Zentrum der Untersuchungen, das Gehirn. Die Analyse des Aufbaus und der Funktionsprinzipien der riesigen, eng verflochtenen Netze von Neuronen im Gehirn, die letztlich für die kognitiven, mentalen und psychischen Prozesse bei Mensch und Tier verantwortlich sind, macht rapide Forschritte, wenn auch der Weg zu einem detaillierten Verständnis noch sehr weit ist.

In der Physik, die als erste der Naturwissenschaften den Weg zu einem quantitativen und theoretisch-mathematisch fundierten Verständnis beschritten hat, standen zunächst einfache, gut analysierbare Teilsysteme im Vordergrund. Spätestens mit der Entwicklung der nichtlinearen Dynamik und der Chaostheorie im 20. Jahrhundert wurde jedoch auch hier die Rolle der Komplexität klar. Das gilt für fast alle Vielteilchensysteme, ja selbst das Vakuum weist im Rahmen der Quantentheorie Züge großer Komplexität auf.

Die Rolle der Komplexität in der Chemie folgt schon aus ihrer Verankerung in der Physik, da chemische Moleküle Paradebeispiele für Vielteilchensysteme darstellen. Struktur, Funktion und Dynamik großer Makromoleküle sind im Grenzbereich zwischen Chemie, Physik und Biologie angesiedelte Fragestellungen. Von den supramolekularen chemischen Strukturen, die die Grundlage vieler Prozesse in der lebenden Zelle bilden, gibt es einen nahtlosen Übergang zum aktuellen Gebiet der atomaren Cluster und Nanostrukturen mit großem technischem Anwendungspotenzial. Quelle: idw
Mehr zum Thema:
Emergenz: Strukturen der Selbstorganisation in Natur und Technik

Das Wunder der Realität

Vor 2400 Jahren hielt der Philosoph Platon die Welt um uns her für eine Illusion. Wir würden wie die Gefangenen in seinem berühmten Höhlengleichnis nur die Schatten der wahren Welt sehen. Aber zu welchem Ergebnis kommt die moderne Quantenphysik?

Ist es die reale Welt, die wir sehen?

Als Erwin Schrödinger, einer der Väter der Quantenphysik, im Jahr 1926 die nach ihm benannte Wellengleichung aufstellte, änderte sich das Bild, das sich die Physiker von der Welt machten. Vorher funktionierte die Welt nach den herrschenden Modellvorstellungen ähnlich wie ein mechanisches Uhrwerk, nachher glich sie einem Meer, in dem der reine Zufall das Wasser zu Wellen formt.

Die Wellengleichung beschreibt Materie als Wellen. Wellen können sich neben anderen Eigenschaften auch überlagern. Das bedeutet, dass beispielsweise eine Katze, die durch eine Wellengleichung beschrieben wird, gleichzeitig tot und lebendig sein kann (bekannt als »Schrödingers Katze«). Eine Zombie-Katze, die halb tot und halb lebendig ist, erscheint als kein Wesen der Realität und so sah man zunächst die Wellengleichung als einen rein mathematischen Formalismus an, der nur dazu dienen sollte, Beobachtungsergebnisse über das Verhalten der kleinsten Bausteine unseres Universums, den Quanten, vorhersagen.

Gott würfelt nicht.

Die Vorhersagedaten für einzelne Atome, Moleküle, Elektronen oder Lichtteilchen waren zudem keine exakten Werte, sondern stellten nur die Wahrscheinlichkeit dar, ein bestimmtes Ergebnis zu erhalten. So, als wenn man vor dem Wurf einer Münze vorhersagen würde, dass diese mit 50 % Wahrscheinlichkeit auf der Zahlseite zum Liegen käme. Das tatsächliche Ergebnis ließ sich auf diese Weise nicht vorausberechnen. Das wirkte wie ein Schlag auf die Köpfe der Physiker. Sollte etwa der reine Zufall in die Physik Einzug halten? Dass es andererseits keinen Zweifel an der Richtigkeit der Vorhersagen der Schrödingergleichung gibt, beweist heutzutage die Existenz von Handys, DVD-Playern und Scannerkassen im Supermarkt. Denn ohne Schrödingers Wellengleichung gäbe es das alles nicht.

Der Ausspruch »Gott würfelt nicht!« wird Albert Einstein zugeschrieben. Er wollte es nicht wahrhaben, dass Wellen und der Zufall in der Welt des Kleinsten regieren und er wehrte sich vehement gegen die Vorstellung, den Wahrscheinlichkeitswellen in den Formeln der Quantenphysik eine physikalische Realität zuzugestehen. Genauso wie er, verneinten viele Physiker seiner Zeit die Existenz einer physikalischen Realität für Schrödingers Wahrscheinlichkeitswellen. Einzig den vorhergesagten Messwerten wurde Realität zugestanden.

Das Kriterium, das zwischen Realität und Illusion unterscheidet.

Um seine Sicht der Dinge abzusichern, stellte Einstein zusammen mit den Physikern Podolski und Rosen im Jahr 1935 ein Kriterium auf, mit dem entschieden werden kann, wann ein Element der physikalischen Realität existiert: das EPR-Realitätskriterium. Danach existiert sinngemäß dann ein Objekt der physikalischen Realität, wenn sich seine physikalischen Größen mit Sicherheit, also 100%-Wahrscheinlichkeit, voraussagen lassen, ohne das Objekt selbst manipulieren zu müssen. Beispielsweise kann die Astronomie die Stellung des Mondes am Nachthimmel mit Sicherheit voraussagen, ohne dass eine amerikanische Mondmission den Mond in die vorausgesagte Stellung schieben müsste. Deshalb ist der Mond nach dem EPR-Realitätskriterium ein Objekt der physikalischen Realität und nicht der Illusion oder sogar der Wahnvorstellung irrer Menschen.

Einstein war zweifellos gewitzt, als er das EPR-Kriterium zusammen mit seinen Physikerkollegen veröffentlichte, denn er wusste genau, dass Schrödingers Wellengleichung im Regelfall keine Wahrscheinlichkeitswerte von 100% für die zu messenden Elemente und Größen voraussagte. So konnte er beruhigt davon ausgehen, dass nach seinem Kriterium die in die Schrödingergleichung eingehenden Elemente keine physikalische Realität besäßen. Die uhrwerkartig funktionierende Welt sah er als gerettet an. Seiner Meinung nach war die quantenphysikalische Beschreibung unvollständig. Es sei nur nötig die »verborgenen Variablen« zu entdecken, welche vorhanden sein mussten. Er glaubte, die Welt sei durch diese verborgenen Variablen deterministisch gesteuert.

Ein Paradoxon beweist die Realität.

Einstein konnte aus dem Grund auch nicht glauben, dass es so etwas gäbe, was er als »Spukhafte Fernwirkung« abqualifizierte. Allein die Dinge entwickelten sich dramatischer, als er sich vorstellen konnte. Denn mithilfe bestimmter optischer Kristalle lassen sich heute sogenannte verschränkte Photonenpaare erzeugen, die auf eine unerklärliche Weise miteinander verbunden sind, auch wenn die Photonen in entgegengesetzte Richtungen abstrahlen und womöglich erst gemessen werden, nachdem sie makroskopische Distanzen zurückgelegt haben. Die Messung der Eigenschaft eines der Photonen führt dazu, dass das zweite Photon augenblicklich einen komplementären Zustand annimmt. Wenn beispielsweise bei einem der verschränkten Photonen zufällig eine waagrechte Polarisierung gemessen wird, dann nimmt das zweite viele Kilometer entfernte Photon augenblicklich eine senkrechte Polarisierung an, ohne dass sich die Photonen über lokale Signale miteinander verständigen könnten.

Das Verhalten verschränkter Photonen bedeutet, dass die Polarisierung des zweiten Photons mit Sicherheit (= 100% Wahrscheinlichkeit) vorhergesagt werden kann, nachdem das erste Photon gemessen wurde. Aufgrund des EPR-Realitätskriteriums existiert dann ein Objekt der physikalischen Realität, das dieser Polarisierung entspricht. Die Wahrscheinlichkeitswelle des zweiten Photons ist vor seiner Messung nicht nur eine mathematische Größe, sondern auch ein Objekt der physikalischen Realität. Es ist paradox, dass das EPR-Kriterium aufgestellt wurde, um zu zeigen, dass die Wahrscheinlichkeitswellen, die aus Schrödingers Gleichung folgen, keine physikalische Realität besitzen, aber die Anwendung des Kriteriums auf verschränkte Photonen genau das Gegenteil beweist (EPR-Paradoxon). So hat Einstein letztendlich dafür gesorgt, dass die Welt der Quantenphysik nicht nur eine Illusion ist, sondern die Realität. Wir »Normalsterbliche« haben das Ergebnis schon lange verinnerlicht, denn das Handy in der Tasche kann doch nicht Illusion sein oder? – Klaus-Dieter Sedlacek, Foto cc-by Anieteke (flickr)

Übernatürliche Mächte gegen die Wissenschaft

Gods Foto cc-by-sa radiant guy (flickr)

Vor wenigen Jahrhunderten schleuderten sie noch Blitze gegen die Menschen. Heute ist ihr Zuständigkeitsbereich stark geschrumpft. Die Rede ist von den übernatürlichen Mächten. Sterben diese als Erklärungsmodell in der heutigen Zeit aus?

Als Erklärungsmodell sind übernatürliche Mächte immer dann gefragt, wenn es um scheinbar Unerklärliches oder um nicht beeinflussbare Dinge geht. Krankheiten, Naturkatastrophen, Geburt und Leben, die Kosmologie oder auch nur das Wetter waren zumindest in der Vergangenheit die Bereiche in denen überirdische Mächte im Denken der Menschen ihr Betätigungsfeld fanden. Denn Stürme, Regen oder sonstige Wetterphänomene ließen sich in früheren Zeiten nicht auf bekannte Ursachen zurückführen. Die anscheinend logische Schlussfolgerung in solchen Fällen war dann immer, dass nur eine übernatürliche Macht der Verursacher der Phänomene sein konnte. Göttliche Strafgerichte wie Überschwemmungen lehrten die Menschen, diese überirdischen Mächte zu fürchten. Eine gerechte Verteilung von Regen und Sonne, die zu reichen Ernten führte, empfanden die Menschen dagegen als Zeichen göttlicher Gunst.

Die Tage göttlicher Wettermacher waren aber spätestens seit der Einführung von Thermometer und Barometer gezählt. Im 17. Jahrhundert begannen sich neue Ansätze der Wetterforschung herauszubilden. Auf dem Gebiet der Meteorologie mussten die übernatürlichen Mächte der Wissenschaft weichen.

Ein weiteres Feld für Scharmützel zwischen rationalem Denken und Glauben an überirdische Mächte waren Schicksalsschläge und Krankheiten. Soweit es um die Heilung eines gebrochenen Beines oder einer Infektionskrankheit geht, werden heute Überirdische nicht mehr benötigt. Die moderne Medizin richtet es und die Bezeichnung »Halbgötter in Weiß« ist eher ironisch zu werten. Insofern mussten die übernatürlichen Mächte auch auf diesem Gebiet den Rückzug antreten. Die Wissenschaft füllt nun die entstandene Lücke aus.

Das Wissen der Götter in der modernen Naturwissenschaft

Die abendländischen Alchemisten, deren fortschrittliche Apparatetechnik eine wissenschaftliche Leistung war, bezogen angeblich geheimes Wissen von den Göttern. Die geheime Anleitung der Alchemisten, die »Tabula Smaragdina« wurde vermutlich im 11. Jahrhundert ins Lateinische übersetzt und soll vom griechischen Gott Hermes stammen. Im 17./18. Jahrhundert wurde die Alchemie allmählich von der modernen Chemie und Pharmakologie abgelöst.

Spätestens mit der Entstehung der Quantentheorie vor 100 Jahren und der Entdeckung des Periodensystems der Elemente, hörten die Götter mit der Unterstützung der alchemistischen Goldmacher auf. Denn nun wusste die Wissenschaft so viel über den Aufbau der Atome, dass die Herstellung von Gold durch alchemistische Methoden, als ein Ding der Unmöglichkeit entlarvt wurde.

Trotz der Niederlage für die übernatürlichen Mächte profitierte die Wissenschaft von den zahlreichen Errungenschaften der Alchemie. Diese sind unter anderem die Erfindung des Porzellans oder des Schwarzpulvers in Europa. Aber auch weniger Spektakuläres wie die Herstellung von Phosphoreszenz-Farbstoff oder die Entdeckung der Chemilumineszenzreaktion, die in der forensische Chemie Eingang fand, gelang den Alchemisten.

In der Wetterkunde, der Medizin, der Kosmologie und bei sonstigen unerklärlichen Phänomenen, überall mussten die ursprünglich überirdischen Mächte Niederlagen einstecken, zurückweichen und der wissenschaftlichen Welterklärung Platz machen. Umso erbitterter werden die scheinbar verbliebenen Bastionen von Gläubigen verteidigt. Mit Begierde stürzen sich die Verteidiger mystischer Mächte auf die tatsächlichen oder vermeintlichen Lücken in der Wissenschaft.

Sind die Arten durch Zufall entstanden?

Eines der Hauptargumente der Mystiker ist das Unwahrscheinlichkeitsargument. Es sei unwahrscheinlich, dass sich unser Universum durch Zufall entwickelt habe. Es sei unwahrscheinlich, dass biologische Moleküle durch Zufall entstanden sind. Oder es sei unwahrscheinlich, dass sich komplizierte menschliche Organe durch Zufall entwickelt haben. Dabei glauben die selbst ernannten Advokaten der Mystik, dass es nur zwei Alternativen gäbe: Schwarz oder Weiß, Zufall oder Schöpfer und nichts anderes. Wenn der Zufall zu Fall gebracht wird, dann gibt es nach dieser Denkweise nur noch den Schöpfer.

Das Dumme ist nur, dass die Evolutionsbiologen gar nicht behaupten, die Arten seien allein durch Zufall entstanden. Entsprechendes gilt für die Wissenschaftler anderer Fachbereiche, in denen evolutionäre Prozesse vorkommen. Die Evolutionsbiologie führt das Prinzip der ‘natürlichen Selektion’ an, welches die Natur anwendet, um bei harten äußeren Lebensbedingungen die fittesten Individuen überleben zu lassen. Dies führt genauso wie bei der Züchtung von Pflanzen oder Haustieren, nach und nach zu neuen Arten. Die natürliche Auswahl der Fittesten hat nichts mit blindem Zufall zu tun. Wie gut und manchmal auch rasend schnell dieses Prinzip besonders in der gezielten Anwendung funktioniert, beweist die Pharmaindustrie, die jährlich neue Impfstoffe gegen mutierte Grippeviren entwickelt. Ohne den Begründer der Evolutionstheorie, Charles Darwin, würden Pandemien regelmäßig auftreten und könnten nicht schon im Keim erstickt werden.

Ist der Organismus in der Eizelle vorgebildet?

Auch die Vorstellung, dass sich der Mensch nicht allmählich im Mutterleib entwickelt, sondern von ‘Gott’ geschaffen wird und der gesamte Organismus im Spermium bzw. in der Eizelle praktisch vorgebildet ist, verträgt sich nicht mit den Fakten. Zumindest seit es Mikroskope gibt, kann sich jeder Biologe oder Mediziner, vom Gegenteil überzeugen.

Der Evolutionsbiologe und Philosoph Ernst Haeckel zeigte bereits vor mehr als hundert Jahren, dass das Dogma der Präformation aus naturwissenschaftlicher Sicht nicht haltbar ist:

In engem Zusammenhange mit der Präformationslehre und in berechtigter Schlussfolge aus derselben entstand im 17. Jahrhundert eine weitere Theorie, welche die denkenden Biologen lebhaft beschäftigte, die sonderbare “Einschachtelungslehre”. Da man annahm, dass im Ei bereits die Anlage des ganzen Organismus mit allen seinen Teilen vorhanden sei, musste auch der Eierstock des jungen Keimes mit den Eiern der folgenden Generation darin vorgebildet sein, und in diesen wiederum die Eier der nächstfolgenden u. s w., in infinitum! Darauf hin berechnete der berühmte Physiologe Haller, dass der liebe Gott vor 6000 Jahren – am sechsten Tage seines Schöpfungswerkes – die Keime von 200000 Millionen Menschen gleichzeitig erschaffen und sie im Eierstock der ehrwürdigen Urmutter Eva kunstgerecht eingeschachtelt habe. (Ernst Haeckel: Die Welträtsel)

Mit Haeckel wendet sich das Argument der Unwahrscheinlichkeit gegen die Verteidiger der übernatürlichen Mächte selbst. Die Schöpfung der Keime durch den lieben Gott ist aus wissenschaftlicher Sicht mehr als unwahrscheinlich. Um daran zu glauben, bedarf es wenig nachvollziehbarer intellektueller Anstrengungen. Die übernatürlichen Mächte ziehen sich weiter zurück, aber aussterben werden sie wohl nie. Denn auch ein falsch angewendetes Argument der Unwahrscheinlichkeit findet immer neue Anhänger. – Klaus-Dieter Sedlacek – Foto: cc-by-sa radiant guy (flickr)

Elektronen auf frischer Tat beim Tunneln ertappt

Was sich wie ein Delikt anhört, nämlich das »Tunneln« ist ein ganz normaler quantenphysikalischer Vorgang. Erstmals ist es nun gelungen Elektronen live zu beobachten, wie sie die Atome verließen, von denen sie gefangen gehalten wurden (Heraustunneln).

Der Tunneleffekt erklärt unter anderem, wie es zur Kernfusion in der Sonne kommt oder auch die Funktionsweise des Raster-Tunnelmikroskops, mit dem man bis zu 100-Millionenfach vergrößern kann. Der Fernsehprofessor der Physik, Harald Lesch, demonstriert in der Bildungssendung Alpha Centauri eindrucksvoll, was es mit diesem Phänomen »Tunneleffekt« auf sich hat. Zu Beginn schwebt er durch die Tafelwand der Fernsehkulisse, so wie ein Geist, den keine Barriere von einem Spuk abhalten kann. Gleich darauf nimmt er wieder eine feste Gestalt an und erklärt, dass der Zuschauer seine Vorführung mit Vorsicht genießen soll. Mit dieser Warnung hat er wohl recht. Denn wenn ein Zuschauer es ihm gleich tun wollte, würde er nur Beulen und blaue Flecke davontragen. Die Wahrscheinlichkeit, dass Menschen durch Wände gehen können, ist verschwindend gering. Nur mikroskopischen Quantenobjekten wie Elektronen oder Protonen gelingt dieses Kunststück mit deutlich höherer Wahrscheinlichkeit.

Man kann den Effekt am Beispiel einer Kugel erklären, die ein Mensch mit Schwung einen Hügel hochrollen lässt. Wenn die Energie, welche der Kugel mitgegeben wird, nicht genügt, rollt die Kugel immer wieder zurück, anstatt die Kuppe zu überwinden und ins nächste Tal zu gelangen. In der Quantenphysik besteht dagegen für Quantenobjekte die Möglichkeit den Potentialwall, wie der Hügel genannt wird, zu durchtunneln. In einem Augenblick befindet sich das Quantenobjekt noch vor dem Potentialwall und im nächsten Augenblick schon dahinter im nächsten Tal. Es ist ein sprunghafter Übergang ohne Zwischenzustände.

Heraustunneln von Elektronen aus Atomen

Noch niemand konnte bisher das Quanten-Tunneln in Echtzeit beobachten. Dieses Kunststück ist nun Physikern des Max-Planck-Instituts für Quantenoptik gelungen. Sie haben das Heraustunneln von Elektronen aus einem Atom erstmals in live verfolgt. Die elektrischen Kräfte innerhalb eines Atoms halten normalerweise jene Elektronen fest, die sich in seinem Inneren aufhalten. Die Kräfte bilden den Potentialwall, den es zu überwinden gilt, wenn sich ein Elektron aus dem Atom herauslösen soll.

Der Trick der Max-Planck-Physiker bestand darin, mit Hilfe von Attosekunden-Laserblitzen die Elektronen näher an den Rand ihres Atomgefängnisses zu bringen. Eine Attosekunde ist milliardster Teil einer milliardstel Sekunde und damit unvorstellbar kurz. Der Laserblitz vergrößert die Wahrscheinlichkeit, dass die Elektronen aus ihrem Atomgefängnis entkommen können. Und tatsächlich, nach einem zweiten Laserblitz, der die Breite des Potentialwalls ein wenig verringerte, nutzen die Elektronen die Gelegenheit, um herauszutunneln.

Atome, denen ein Elektron fehlt, sind positiv geladen. Als die Physiker im Anschluss an das Experiment die positiv geladenen Atome zählten, waren sie nicht schlecht überrascht, dass zahlreiche Elektronen entkommen waren. Noch interessanter ist aber die Feststellung, dass der Zeitbedarf für das Heraustunneln praktisch kaum messbar ist, sodass die Physiker annehmen, der Tunnelprozess benötige überhaupt keine Zeit. Die Erkenntnisse sollen helfen, bessere Röntgenlaser für die medizinische Therapie zu entwickeln.

Tunneleffekt und Hirnforschung

In der Hirnforschung kann das quantenmechanische Tunneln möglicherweise eine Erklärung für die Geschwindigkeit von bewussten Denkprozessen liefern. Die einzelnen Neuronen des Gehirns werden durch Schnittstellen verbunden, die Synapsen heißen. Diese besitzen einen winzigen Spalt, der überwunden werden muss, wenn ein Signal von Neuron zu Neuron übertragen werden soll. Die herkömmliche Theorie besagt nun, dass zur Übertragung von Signalen an den Synapsen, das ursprünglich elektrische Signal in ein chemisches umgewandelt werden muss. Die Theorie kann aber nicht die Geschwindigkeit von bewussten Denkprozessen erklären. Wie jeder weiß, der schon mal einen Akku am Stromnetz geladen hat, benötigt die Umwandlung von elektrischer Energie in chemische erhebliche Zeit. Würde die herkömmliche Theorie stimmen, müsste Denken schneckengleich langsam sein. Weil das der Erfahrung widerspricht, nehmen einige Hirnforscher an, dass der extrem schnelle quantenmechanische Tunneleffekt zur Überwindung des synaptischen Spalts eine Rolle spielt. Sollte man das experimentell bestätigen können, hätte man gleichzeitig eine Verbindung von Bewusstsein zur Welt der Quanten mit all ihren seltsamen Phänomenen gefunden. – Klaus-Dieter Sedlacek

Der Autor ist Verfasser des Buchs mit dem Titel »Unsterbliches Bewusstsein, Raumzeit-Phänomene, Beweise und Visionen« in dem aufgrund quantenphysikalischer Phänomene die Existenz von Bewusstsein auch außerhalb des Gehirns nachgewiesen wird.