Wie Hunde menschliche Emotionen verstehen

KognitionsforscherInnen der Vetmeduni Vienna wiesen erstmals nach, dass Hunde zwischen fröhlichen und zornigen Menschengesichtern unterscheiden können. Voraussetzung dafür: Die Hunde müssen diese Emotionen zuvor beim Menschen gelernt haben. Diese Fähigkeit könnte das Resultat der engen Mensch-Tier-Beziehung sein, in der Hunde gelernt haben, Aspekte der nonverbalen Kommunikation der Menschen zu verstehen. Die Ergebnisse wurden in der renommierten Fachzeitschrift Current Biology veröffentlicht.

Hunde können die Gesichter verschiedener Menschen auf Bildern unterscheiden. Diese Fähigkeit haben die Forschenden des Messerli Forschungsinstitutes bereits 2013 nachgewiesen. (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3807667/) Ob Hunde auch Emotionen in Gesichtern von Artfremden wahrnehmen können, wurde bisher noch nicht zweifelsfrei nachgewiesen.

Hunde unterscheiden menschliche Emotionen via Touch-Screen

Corsin Müller und Ludwig Huber vom Messerli Forschungsinstitut haben diese Fähigkeit gemeinsam mit Kolleginnen im Clever Dog Lab an der Vetmeduni Vienna erforscht. Sie präsentierten 20 Hunden jeweils ein fröhliches und ein zorniges Frauengesicht nebeneinander auf einem Touch-Screen.

Hunde der einen Testgruppe wurden in der Übungsphase darauf trainiert, nur fröhliche Gesichter anzustupsen. Eine andere Gruppe sollte nur zornige Gesichter auszuwählen.
Um auszuschließen, dass sich die Tiere lediglich an auffälligen Bildunterschieden wie den hervorscheinenden Zähnen oder den Zornesfalten zwischen den Augen orientieren, zerteilten die Forschenden die Bilder horizontal. Die Hunde bekamen währen der Trainingsphasen also entweder nur die Augen- oder die Mundpartie zu sehen.

Und tatsächlich waren die Treffer nicht zufällig. Die meisten Hunde lernten zwischen fröhlichen und zornigen Gesichtshälften zu unterscheiden und schafften anschließend die korrekte Zuordnung auch spontan für komplett neue Gesichter, ebenso wie für die Gesichtshälften, die sie in der Übungsphase nicht zu sehen bekommen hatten.

Hunde erlernen das Erkennen von fröhlichen Gesichtern schneller

Hunde, die auf fröhliche Menschengesichter trainiert waren, erlernten ihre Aufgabe wesentlich schneller, als jene, die nur die zornigen Gesichter anzeigen sollten. „Es sieht so aus, als würden die Hunde Hemmungen haben, zornige Gesichter anzustupsen“, erklärt der Studienleiter Ludwig Huber.

„Wir gehen davon aus, dass die Hunde bei dieser Übung aus ihrer Erinnerung schöpfen. Sie erkennen einen Gesichtsausdruck, den sie bereits abgespeichert haben“, erklärt der Erstautor Corsin Müller. „Wir vermuten, dass Hunde, die keine Erfahrungen mit Menschen haben, schlechter abschneiden würden oder die Aufgabe gar nicht lösen könnten.“

Hunde sind unterschätzte Tiere

Hunde verfügen zwar über einen höher entwickelten Geruch- und Gehörsinn als der Mensch, der Sehsinn der Vierbeiner ist jedoch etwa sieben Mal schlechter entwickelt. „Dass Hunde die menschliche Gefühlswelt auf diese Art wahrnehmen können, war bisher noch nicht bekannt. Um die Entwicklung dieser Fähigkeiten noch besser zu verstehen, wollen wir diese Tests am Touch-Screen in Zukunft auch mit Wölfen am Wolf Science Center durchführen“, so Huber.

Seit drei Jahren forscht das Team um Ludwig Huber im WWTF-Projekt „Like me“ daran, ob sich Hunde in die Gefühlswelt von Artgenossen oder Menschen einfühlen können. Projektpartner an der MedUni Wien und der Universität Wien erforschen entsprechend die empathischen Fähigkeiten der Menschen. (Quelle: idw).

Buchtipps:
Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit
Quantenbewusstsein: Natürliche Grundlagen einer Theorie des evolutiven Quantenbewusstseins

Merken

Sind wir Sklaven unseres Unterbewusstseins?

Sind wir Sklaven unseres Unbewussten und können nichts dagegen tun? Hirnforscher sagen: Nein! Unser Bewusstsein kontrolliert unbewusste Prozesse im Gehirn. Der Wille und die automatische Verarbeitung arbeiten Hand in Hand, nicht gegeneinander. Das hat eine Forschergruppe an der Universität Ulm um den Psychologen Professor Markus Kiefer herausgefunden.

Unbewusste Prozesse, die im Widerspruch zu unseren Absichten stehen, werden weitgehend von unserem Bewusstsein blockiert. „Unser Wille ist freier als gedacht“, sagt Markus Kiefer, Sprecher eines deutschlandweiten Projektnetzwerkes zur Bewusstseinsforschung. Seine Forschungsgruppe konnte mit Messungen der Hirnaktivität im Magnetresonanztomographen (MRT) zeigen, dass bewusste Vorsätze die Arbeit unserer automatischen Systeme im Gehirn steuern. Die Forscher wiesen erstmals nach, dass solche Vorsätze für eine gewisse Zeit Netzwerke von Bereichen im Gehirn etablieren, die den unbewussten Informationsfluss im Gehirn steuern. Diese Ergebnisse wurden nun in der renommierten Fachzeitschrift Human Brain Mapping veröffentlicht.

Seit den Arbeiten des Begründers der Psychoanalyse Sigmund Freund wurde angenommen, dass unser Unbewusstes autonom und nicht vom Bewusstsein kontrollierbar ist. „Die Vorstellung des chaotischen und unkontrollierbaren Unbewussten prägt bis heute auch die akademische Psychologie und Kognitionsforschung. Dieses Dogma wurde in der Vergangenheit kaum kritisch hinterfragt“, so Professor Markus Kiefer. „Unsere Befunde widerlegen diese Lehrmeinung. Sie zeigen eindeutig, dass unser Bewusstsein zu den Absichten passende unbewusste Vorgänge in unserem Gehirn verstärkt, nicht passende dagegen abschwächt.“ Dadurch werde gewährleistet, dass unser bewusstes „Ich“ Herr im Haus bleibt und nicht durch eine Vielzahl unbewusster Tendenzen beeinflusst wird. „Wir sind also keinesfalls Sklaven unseres Unbewussten, wie lange Zeit angenommen“, meint Kiefer.

Diese Kontrolle des Unbewussten durch das Bewusstsein zeige sich, so Kiefer, auch im Alltag: “Wenn ich in den Supermarkt gehe, um Spülmittel zu kaufen, bin ich wenig empfänglich für die Schokolade im Süßwarenregal. Die Situation ist ganz anders, wenn ich gerade hungrig und dabei bin, Nahrungsmittel einzukaufen. Ähnliches gilt auch beim Autofahren: Wenn ich einen Fußgänger auf der Fahrbahn erwarte, kann ich ihn mit höhere Wahrscheinlichkeit auch dann rechtzeitig erkennen und abbremsen, wenn er am Rande meines Gesichtsfeldes auftaucht und damit nicht bewusst wahrnehmbar ist.“ Die bewussten Absichten und Einstellungen entscheiden somit darüber, ob ein unbewusster Prozess in unserem Gehirn überhaupt ablaufen kann.

Für die Studie haben die Forscher der Ulmer Universitätsklinik für Psychiatrie die Gehirnaktivität von Probanden beim Lesen von sichtbaren Worten im Magnetresonanztomographen gemessen. Zuvor wurden andere Worte, so genannte Bahnungsreize, für eine ganz kurze Zeit eingeblendet, so dass sie nicht bewusst wahrnehmbar waren. Bedeutungsmäßig verwandte unbewusste Bahnungsreize beschleunigten die Erkennenszeiten der nachfolgend gezeigten kritischen Wörter (z.B. Tisch-Stuhl, Henne-Ei) nur dann, wenn die Probanden zuvor die Absicht hatten, die Bedeutung von Wörtern zu verstehen. Hatten die Probanden dagegen die Absicht, auf die Form von Buchstaben zu achten und die Wortbedeutung zu ignorieren, hatten die unbewussten Bahnungsreize keinen Einfluss auf die Erkennenszeiten der sichtbaren Worte.

Diese Blockade unbewusster Prozesse durch die bewussten Absichten der Probanden konnte auch anhand der Messung der Hirnaktivität nachgewiesen werden. Wie bei den Erkennenszeiten auch, wurde die Gehirnaktivität beim Lesen der sichtbaren Worte nur dann durch die unbewussten Bahnungsworte verändert, wenn die Probanden zuvor, auf die Bedeutung von Bildern beachteten. Beachteten die Probanden zuvor die Form von Bildern, hatten die unbewusst wahrgenommenen Worte keinen Einfluss auf die Gehirnaktivität beim Lesen. Es zeigte sich, dass die bewussten Absichten der Probanden, auf Bedeutung oder Form zu achten, für eine gewisse Zeit unterschiedliche Netzwerke von Hirnarealen etablierten, welche die Verarbeitung der unbewusst wahrgenommenen Reize beeinflussten.

Mit 1,9 Millionen Euro förderte die Deutsche Forschungsgemeinschaft (DFG) ein deutschlandweites Projektnetzwerk zur Bewusstseinsforschung, in das das Ulmer Projekt eingebettet ist. Kiefer ist Sprecher dieses Netzwerkes: „Mühelos koordiniert das Gehirn im Alltag bewusste und unbewusste Prozesse, etwa bei der Wahrnehmung. Aber was dabei im Kopf passiert, ist sehr kompliziert und nach wie vor zum Teil unverstanden. Philosophen streiten seit Jahrtausenden über die Natur des Bewusstseins und sein Verhältnis zu den unbewussten Vorgängen. Wir können nun mit modernsten Methoden bewusste und unbewusste Prozesse im Gehirn sichtbar machen und so zur Lösung dieser alten Frage beitragen“. Im Gegensatz zur früheren Lehrmeinung werde durch diese Forschung deutlich, dass sich bewusste und unbewusste Vorgänge im Gehirn wechselseitig beeinflussen. (Text: Markus Kiefer / idw)

Weitere Informationen:
Prof. Dr. Markus Kiefer, Universität Ulm, Klinik für Psychiatrie und Psychotherapie III, Leiter der Sektion für Kognitive Elektrophysiologie; Tel. 0731/500-61532; Email: markus.kiefer@uni-ulm.de;

Buchtipps:
Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen
Quantenbewusstsein: Natürliche Grundlagen einer Theorie des evolutiven Quantenbewusstseins

Merken

Gedächtnisforschung: Hemmender Botenstoff am Lernprozess beteiligt


Honigbienen lernen sehr schnell und haben ein hervorragendes Gedächtnis. Daher sind sie als Modellorganismen für die Forschung interessant. Da die Lernprozesse beim Menschen ähnlich ablaufen, können Erkenntnisse aus der Bienenforschung übertragen werden. Wissenschaftler der Saar-Uni haben nun erstmals an Nervenzellen von Bienen experimentell belegt, dass der Neurotransmitter Gamma-Aminobuttersäure (GABA) eine bedeutende Rolle bei Lernprozessen spielt. GABA ist einer der wichtigsten hemmenden Botenstoffe im Gehirn und spielt unter anderem bei Krankheiten wie Alzheimer und Epilepsie eine Rolle. Die Studie wurde in der renommierten Fachzeitschrift „Journal of Neuroscience“ veröffentlicht.
Mit einem Gehirn kleiner als ein Stecknadelkopf und mit weniger als einer Million Nervenzellen können sich Bienen hervorragend in der Umgebung orientieren und lernen, wo für sie wichtige Futterquellen liegen. Hierbei verknüpft ihr Nervensystem spezifische Informationen wie Düfte, Farben und Landmarken mit einer Belohnung in Form von Nektar. Dies wird im Gedächtnis gespeichert, sodass die Biene die Futterstelle auch Tage später wiederfindet.
„Bei diesen Lernprozessen spielen chemische Botenstoffe eine wichtige Rolle“, sagt Uli Müller, Professor für Zoologie und Physiologie an der Universität des Saarlandes. „Diese Neurotransmitter übermitteln Informationen zwischen Nervenzellen, wobei zwischen erregenden und hemmenden Transmittern unterschieden wird.“ Ein erregender Botenstoff wie Acetylcholin (ACh) aktiviert die nächste Nervenzelle, während ein hemmender Transmitter wie GABA die Signalübermittlung herunterregelt. Kommen nun zwei Reize wenige Millisekunden hintereinander an einer Nervenzelle an, „verrechnet“ die Zelle diese miteinander. So kann das Signal bei der Verrechnung zweier Reize besonders verstärkt oder abgemildert werden, je nachdem, welche Transmitter beteiligt sind.
Kommt es bei der Reizweiterleitung zu Änderungen, sind Nervenzellen in der Lage, darauf zu reagieren – eine Eigenschaft, die Fachleute als neuronale Plastizität bezeichnen. Sie ist maßgebend für das Lernen und die Gedächtnisbildung.
„Beim Lernen spielt die zeitliche Abfolge der Informationen, also etwa die zeitliche Paarung von Duft und der anschließenden Nektarbelohnung, eine entscheidende Rolle“, so Müller weiter. „Bei bisherigen Untersuchungen von Lernprozessen stand vor allem die zeitliche Verrechnung von erregenden Neurotransmittern im Fokus. Obwohl bekannt war, dass der hemmende Neurotransmitter GABA beim Lernen eine Rolle spielt, wurde er nicht mit diesen Prozessen in Verbindung gebracht.“

Dies ist nun erstmals Müller und seinem Mitarbeiter Davide Raccuglia in ihrer aktuellen Studie gelungen. Die Biologen haben die für das Lernen bei Insekten verantwortlichen Nervenzellen, die Kenyonzellen, isoliert und die zeitliche Verrechnung bei erregenden und hemmenden Botenstoffen untersucht. Dazu haben die Forscher die Zellen von Honigbienen und Fruchtfliegen zuerst mit dem erregenden Transmitter ACh und Sekunden später mit dem hemmenden Botenstoff GABA als auch in umgekehrter Reihenfolge stimuliert. Zur Kontrolle haben sie die Versuche jeweils nur mit dem hemmenden oder dem erregenden Botenstoff durchgeführt. Anschließend haben sie gemessen, ob sich die Signalverarbeitung der Zellen verändert hat.
„Wir haben beobachtet, dass es bei der Stimulation mit beiden Transmittern im Gegensatz zu den Kontrollversuchen noch Minuten später zu Änderungen in der Signalverarbeitung der Kenyonzellen kommt“, sagt der Neurobiologe. Durch diese zeitliche Verrechnung haben die Zellen, so Müller weiter, ein „molekulares Gedächtnis“ gebildet. Dabei hänge das Ausmaß dieser Änderungen davon ab, welcher Transmitter zuerst stimuliert und wie viele Rezeptoren die Zellen für den Neurotransmitter GABA besitzen.
Folgestudien müssen jetzt klären, welche Rolle GABA-Rezeptoren bei der Signalverrechnung beim Lernen genau spielen und ob diese beispielsweise mit Krankheiten wie Alzheimer in Zusammenhang stehen. GABA ist einer der wichtigsten Botenstoffe des menschlichen Zentralnervensystems. Er wird auch mit weiteren neurologischen Krankheiten wie Epilepsie in Verbindung gebracht.
Die Studie wurde in der Fachzeitung „Journal of Neuroscience“
veröffentlicht:
„Temporal Integration of Cholinergic and GABAergic Inputs in Isolated Insect Mushroom Body Neurons Exposes Pairing-Specific Signal Processing”.  DOI: 10.1523/JNEUROSCI.0714-14.2014

Was uns eine Meeresschnecke über Evolution und Bewusstsein verrät?

Schlundsackschnecken zu denen Elysia timida gehört, sind hauptsächlich in der Algenzone der Meeresküsten zu finden. Die Schnecken ernähren sich fast ausschließlich von Algen, deren Chloroplasten sie aufnehmen und in ihre Haut oder vergrößerte Mitteldarmdrüse einlagern können (Kleptoplastiden). Elysia timida hat einen Weg gefunden, sich die Photosynthese von Algen nutzbar zu machen. Wie ist das möglich? Als Naturwissenschaftler gehen wir davon aus, dass sich alle komplexen biologischen Systeme durch evolutionäre Prozesse gebildet haben.

Ein Evolutionsprozess besteht aus drei Schritten, die ich kurz charakterisieren möchte: Zuerst entsteht Neues, möglicherweise noch nie Dagewesenes. Im zweiten Schritt wird das Neue mit Vorhandenem kombiniert und zur Auswahl dargeboten. Im dritten und letzten Schritt wird eine Auswahl unter dem Dargebotenen getroffen. Die Auswahl kann passiv durch Wechselwirkungen mit der Umwelt geschehen oder aktiv unter Berücksichtigung der individuellen Neigung, bestimmte Ziele zu verfolgen (= Bedürfnisse).

Das Verdauungsorgan der Schnecke zerkleinert und zerlegt die gefressenen Algen. Neu im Sinn von Schritt 1 der Evolution ist wohl, dass die Schnecke und speziell ihr Darm zwischen verschiedenen Zellbestandteilen der zerlegten Algen unterscheiden kann. Die Schnecke verfügt ganz offensichtlich über die Möglichkeit, selektiv bestimmte Zellbestandteile zu verdauen, oder auch nicht, obwohl sich die einzelnen Bestandteile nicht prinzipiell unterscheiden und andere Meeresschnecken ungeachtet der unterschiedlichen Algenbestandteile die komplette Alge verdauen.

Für den zweiten Schritt des Evolutionsprozesses ergeben sich daraus folgende Kombinationen: a. alle Zellbestandteile verdauen, b. Chloroplasten verdauen, c. alles verdauen außer Chloroplasten.

Im dritten Schritt des Evolutionsprozesses kommt es zu einer Auswahl unter den drei dargebotenen Möglichkeiten. Bei einer passiven Auswahl durch die Umwelt bleibt entweder alles beim Alten (Kombination a) oder das Neue ist im Regelfall von entscheidendem Vorteil für Lebenserhalt und Fortpflanzung. Bei einer aktiven Auswahl können Bedürfnisse die Wahl bestimmen und es kann b oder c zum Tragen kommen.

Die Biologen gehen davon aus, dass die Elysia-Schnecken in Hungerphasen Energie von den Chloroplasten beziehen, die im Darm weiterhin Photosynthese betreiben. Ein Experiment zeigte allerdings, dass die Schnecken auch ohne Photosynthese der Chloroplasten überleben. Nach zwei Monaten im Dunkeln waren die Schnecken so lebendig wie zuvor. Jetzt vermuten die Forscher, die Schnecke profitiert nicht unbedingt sofort von den Chloroplasten, sondern erst dann, wenn die Darmzellen diese in Hungerphasen abbauen.

Für eine passive Auswahl durch die Umwelt im dritten Schritt der Evolution spricht, dass man aus dem Vorhandensein der Chloroplasten im Darm einen geringfügigen Vorteil für den Lebenserhalt ableiten kann. Doch ist dieser Vorteil entscheidend?

Gegen das Wirken eines passiven Prozesses spricht das Erkennen des Unterschieds verschiedener Zellbestandteile der Algen durch die Schnecke selbst bzw. durch ihre Darmzellen. Es gibt also etwas, was sich auf unterschiedliche Anforderungen einstellen kann.

Was die Auswahl im Evolutionsprozess betrifft, so ist die Wahl der Evolution auf Kombination c gefallen, alles wird verdaut außer den Chloroplasten. Allerdings hat die Schnecke anscheinend die Möglichkeit, in Hungerphasen die Kombination b zu wählen, nämlich die Chloroplasten zu verdauen. Es existiert eine nicht determinierte Entscheidungsmöglichkeit zwischen Handlungsalternativen.

Wenn man zudem davon ausgeht, dass die Schnecke das ganz einfache Bedürfnis hat, sich ihr Leben etwas komfortabler zu gestalten, indem sie die Chloroplasten Sauerstoff und Zucker produzieren lässt, dann sind alle Kriterien für den informationsverarbeitenden Prozess erfüllt, den ich in meinen Schriften als Bewusstsein bezeichnet habe.

Der gleiche Bewusstseinsprozess, der Entscheidungen trifft, wann die Chloroplasten Sauerstoff und Zucker produzieren sollen und wann sie zu verdauen sind, hat auch beim dritten Evolutionsschritt die aktive Auswahl durchgeführt.

Sicher handelt es sich nicht um einen hoch entwickelten Bewusstseinsprozess wie das Selbst- oder Oberbewusstsein beim Menschen. Es ist eher ein dem Unterbewusstsein vergleichbarer Prozess. Beim Menschen führt das Unterbewusstsein viele Entscheidungen und körperliche Steuerungen durch. Nur das Wichtigste wird zur Entscheidung dem Oberbewusstsein zugeführt. Und was das Wichtigste ist, das entscheidet ebenfalls das Unterbewusstsein.

Die Elysia-Schnecke zeigt uns mit hoher Wahrscheinlichkeit, dass einfache Bewusstseinsprozesse selbst auf ihrer nicht allzu hohen Entwicklungsstufe wirken.
Mehr unter:

Merken

Physik sorgt für Entwicklungsschub in der Biologie

Geschichte der Biophysik

Physik und Biologie haben gemeinsame Wurzeln und haben sich oft gegenseitig inspiriert. Neue physikalische Messmethoden führten zu einem Entwicklungsschub in der Biologie und Beobachtungen der Biologen dienten als Denkanstöße in der Physik.

Kann die Physik auch prinzipielle Fragen der Biologie klären? Einige Experten hegten einst starke Zweifel. So erklärte der französische Genetiker und Medizin-Nobelpreisträger von 1965, Jacques Monod, lange Zeit, dass Leben zwar mit den Gesetzen der Physik kompatibel sei, aber nicht durch physikalische Gesetze kontrolliert werde. Ernst Walter Mayr, der große Entwicklungsbiologe, behauptete, Physik spiele in der Biologie überhaupt keine Rolle und habe praktisch nichts zur Deutung lebender Materie beigetragen. Die historischen Beispiele zeigen jedoch das Gegenteil.

Mit Physik die Zelle entdecken

Ein erster Begründer der modernen Biologie war der Delfter Kaufmann und Hobbyforscher Antoni van Leeuwenhoek, der um 1670 einfache Mikroskope baute, mit denen er eine bis zu 200-fache Vergrößerung erreichte. Die Mikroskope bestanden aus einer auf einem Kupferring ruhenden Glaskugel, als Beleuchtung diente eine Kerze. Leeuwenhoek beobachtete damit erstmals lebende Zellen – wahrscheinlich sogar große Bakterien.

Historische Skizze des Mikroskops von Robert Hooke.
Mikroskop nach Hooke

Als zweiter Entdecker der Zelle kann der englische Physiker Robert Hooke angesehen werden. Der Experimentator, dessen Name vor allem durch sein Gesetz der Elastizität bekannt ist, beobachttee im 17. Jahrhundert die Struktur von Kork und prägte den Begriff der Zelle. Seine und Leeuwenhoeks Beobachtungen über die Existenz und Bewegung von Zellen wurden von den Biologen lange als Spielerei abgetan und so dauerte es noch gut 200 Jahre, bis die Idee der Zelle vollständig akzeptiert wurde.

Physikalische Prinzipien in der Biologie

Weitere Pioniere der Biophysik waren Thomas Young und Hermann von Helmholtz, die beide über die Medizin zur Physik kamen. Der Augenarzt Thomas Young lieferte Anfang des 19. Jahrhundert mit seinem Beugungsversuch am Doppelspalt den ersten experimentellen Beweis für die Wellennatur des Lichts – gegen den Widerstand des wissenschaftlichen Establishments. In Selbstversuchen lieferte er außerdem den Beweis, dass die Adaption des Auges auf der Verformung der Augenlinse beruht und belegte die Ursache des Astigmatismus, eines optischen Abbildungsfehlers, der sich im Auge als Hornhautverkrümmung äußert. Er stellte auch die Dreifarben-Hypothese des Farbsehens auf, ausgebaut von Helmholtz und heute voll bestätigt. Ebenso wichtig für die Biologie ist Youngs Entdeckung des nach ihm benannten Gesetzes der Kapillarität.

Dargestellt ist die von Helmholtz und Young vermutete Empfindlichkeit des Auges für die drei Farbtöne rot, grün und blau/violett.
Dreifarben-Hypothese

Der Physiologe Helmholtz maß als erster die Transportgeschwindigkeit von Nervensignalen. Seine Formulierung des Energieerhaltungssatzes der Physik und die Entdeckung der zentralen Bedeutung der Zirkulationsströmung für das Fliegen wurden durch die Biologie inspiriert. Dabei ist seine Entwicklung vom Mediziner zum theoretischen Physiker außergewöhnlich: Als Mediziner begründete er die moderne Physiologie und als Physiker legte er den Grundstein für die zum Ende des 19. Jahrhunderts einsetzende enorme Entwicklung der Physik in Deutschland.

Energie und Bewegung

Die prominentesten Beispiele für die Auswirkungen der Biologie auf die Physik sind die Entdeckung des allgemeinen Energieerhaltungsssatzes durch den deutschen Arzt und Physiker Julius von Mayer und den Physiologen Hermann von Helmholtz sowie die Theorie der Brownschen Bewegung durch Albert Einstein. Mayer beobachtete als Schiffsarzt auf Java, dass das in den Venen zum Herzen zurückfließende Blut der Hafenarbeiter in den Tropen heller ist als in gemäßigten Zonen. Er wusste bereits, dass Blut umso heller ist, je mehr Sauerstoff es enthält. Daraus schloss er, dass die Arbeiter in den Tropen bei gleicher Arbeitsleistung weniger Sauerstoff – und damit Energie – verbrauchten als in gemäßigten Zonen, da weniger Wärme an die Umgebung abgegeben wird. Dies brachte ihn auf die Idee, dass Wärme und mechanische Arbeit äquivalente Energieformen sind und er bestimmte aus physiologischen Messungen sogar das mechanische Wärmeäquivalent.

Die Grafik ist zweigeteilt und zeigt statistische Bewegungen von Teilchen, die sich bei höherer Temperatur schneller bewegen.
Brownsche Bewegung

Seine Intuition allein reichte jedoch nicht aus, um der Idee in der Physik zum Durchbruch zu verhelfen. Erst dem Theoretiker Helmholtz gelang 1847 die allgemeine Formulierung des Energieerhaltungssatzes. Seine im Alter von 26 Jahren verfasste Arbeit wurde allerdings nicht zur Publikation in den Annalen für Physik und Chemie angenommen, und so setzte sich der Energieerhaltungssatz eher zögernd durch. Einsteins Deutung der Beobachtung des britischen Botanikers Robert Brown, dass Bärlappsamen in Wasser wirre Bewegungen ausführen, beeinflusste die Physik zu Beginn des Jahrhunderts fast ähnlich stark wie die Plancksche Strahlungsformel. Nach dem experimentellen Beweis der Theorie der Brownschen Bewegung durch den französischen Physiker Jean-Baptiste Perrin, der 1926 den Physik-Nobelpreis erhielt, akzeptierten auch skeptische Physiker das Konzept der atomistischen Struktur der Materie. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Warum das Standardmodell der Teilchenphysik nur eine Zwischenlösung ist

Das Problem mit der Feinjustierung

Das Standardmodell ist wohl die umfassendste Theorie, die es jemals gab. Dennoch sehen Teilchenphysiker damit das Ende der Physik noch längst nicht erreicht und suchen eifrig nach neuen Theorien. Dabei motivieren sie nicht etwa irgendwelche inneren Widersprüchen des Modells oder experimentelle Zwänge, sondern allein die Ästhetik.

Ein Physikprofessor soll Max Planck am Ende des 19. Jahrhunderts dazu geraten haben, nicht Physik zu studieren. Schließlich sei dort, abgesehen von wenigen Lücken, bereits alles erforscht. Heute hätte wohl kein Hochschullehrer mehr solche Bedenken. Dieses vorherrschende Gefühl lässt sich allerdings nur teilweise fachlich begründen. Es ist vor allem mit Problemen der Wissenschafts- und Erkenntnistheorie verbunden.

Viele Galaxien vor schwarzem Hintergrund. In der Mitte befindet sich ein hantelfömiger, rosa Klumpen, an dessen beiden Seiten ein blauer Klumpen angrenzt.
Indirekter Nachweis von Dunkler Materie

Obwohl das Standardmodell der Teilchenphysik gegenwärtig wohl die umfassendste Theorie darstellt, kann es einige Phänomene vom Prinzip her nicht beschreiben. Allem voran steht hier die Gravitation. Zudem gibt das Standardmodell keine Antwort auf die Frage nach Dunkler Materie oder Dunkler Energie, auf die astrophysikalische und kosmische Beobachtungen hinweisen. Deshalb sehen die meisten Teilchenphysiker das Standardmodell nur als eine Stufe auf dem Weg zu einer noch umfassenderen und in gewissem Sinne „einfacheren“ oder „schöneren“ Theorie – Begriffe und Ziele, die mehr philosophisch motiviert sind, als aus immanenten Problemen der Wissenschaft zu folgen.

Das Standardmodell wird demnach oft nur als sogenannte effektive Theorie verstanden, die im Bereich niedriger Energien als Grenzfall einer weitreichenderen Theorie fungiert. Dieses Verhalten kennt man bereits aus anderen Teilgebieten der Physik, wie beispielsweise der klassischen Mechanik: Alle physikalischen Phänomene bei Geschwindigkeiten und Abständen des Alltagslebens – also deutlich langsamer als Licht und deutlich größer als ein Atom – werden durch diese Theorie völlig adäquat beschrieben. Heute versteht man die klassische Mechanik aber als Grenzfall der Relativitätstheorie beziehungsweise der Quantenmechanik.

Vom Standardmodell wissen wir nur, dass es bei Abständen von mindestens einem Milliardstel des Atomdurchmessers gilt. Genauer können die heutigen Beschleuniger nicht auflösen. Für Elementarteilchen wird die Gravitation aber erst bei Abständen relevant, die noch etwa eine billiardemal kleiner sind. Die Sensitivität von Teilchenbeschleunigern wird wohl nie auch nur in die Nähe dieser sogenannten Plancklänge vordringen. Alerdings legt die Struktur des Standardmodells nahe, dass man bereits bei deutlich größeren Abständen Hinweise auf eine übergeordnete Theorie finden sollte.

Keine einfache Theorie

Zwar beruht das Standardmodell im Wesentlichen auf wenigen Prinzipien – vor allem der Eichsymmetrie –, aber dennoch sind 27 Parameter notwendig, die nicht a priori durch die Theorie festgelegte Werte besitzen und durch Messungen bestimmt werden müssen. Diese Zahl erscheint einerseits zu groß, um von einer „schönen“ und „einfachen“ Theorie zu sprechen. Andererseits zeigen einige der Parameter gewisse Regelmäßigkeiten oder Hierarchien, die alles andere als zufällig wirken, deren Ursachen man aber derzeit nicht kennt.

Ein Beispiel: Es existieren zwölf Materieteilchen, die sich in drei fast identische Familien einordnen lassen. Warum existieren diese Wiederholungen? Hauptsächlich unterscheiden sich die Familien durch die Massen der zugehörigen Teilchen. Das Topquark ist beispielsweise mehr als eine Trillion Mal schwerer als das leichteste Neutrino. Welche Ursache hat dieses gewaltige Massenspektrum? Der Higgs-Mechanismus „erzeugt“ zwar Massen, leistet für diese Strukturen aber keinerlei Erklärungen.

Für jedes Elementarteilchen gibt es ein Schildchen, auf dem dessen Masse sowie Nachweisjahr notiert sind. Angeordnet sind die Schildchen in einem Diagramm, in dem Masse und Nachweisjahr gegeneinander aufgetragen sind.
Massenspektrum der Elementarteilchen

Diese und noch andere Eigenschaften des Standardmodells weisen darauf hin, dass es eine neue, umfassendere Theorie geben sollte. Die Suche nach dieser neuen Theorie beruht weitgehend auf Prinzipien wie Einfachheit, Schönheit oder Natürlichkeit. Einer der wichtigsten Ansatzpunkte ist hier natürlich der Higgs-Mechanismus. Von vielen Physikern wird dieser nur als Hilfskonstruktion gesehen, der unter Umständen auf einen tiefer liegenden Mechanismus hindeutet. Denn auch hier finden sich noch einige Schönheitsfehler.

Laut der Theorie wäre das Higgs-Boson das einzige fundamentale Teilchen ohne Eigendrehimpuls. Was erst einmal wie eine kleine Randnotiz aussieht, erweist sich als gravierendes theoretisches Problem. Aus der Wechselwirkung mit den allgegenwärtigen quantenmechanischen Fluktuationen des Vakuums – hier entstehen und verschwinden laufend kurzlebige Teilchen-Antiteilchen-Paare – erhält jedes Teilchen einen Beitrag zu seiner Masse. Die Differenz zwischen dieser „Strahlungsmasse“ und der im Experiment beobachteten physikalischen Masse des Teilchens ergibt die „nackte Masse“. Letztere beschreibt also die Masse, die das Teilchen hypothetisch hätte, wenn es keine Vakuumfluktuationen gäbe.

Unter bestimmten Annahmen lässt sich die Strahlungsmasse für jedes Teilchen berechnen. Bei Teilchen mit einem Spin größer als Null, wie etwa Elektronen und Quarks, fällt die Strahlungsmasse klein aus. Die nackte Masse entspricht damit ungefähr der physikalischen Masse. Anders beim Higgs-Teilchen: Hier hängt die Strahlungsmasse vom Quadrat der höchsten Energie ab, an der das Standardmodell noch Gültigkeit besitzt. Sollte das Standardmodell tatsächlich bis zu Abständen von der Größenordnung der Plancklänge gelten, wäre die Strahlungsmasse hundert Billionen Mal größer als die physikalische Masse des neu entdeckten Teilchens von etwa 125 Gigaelektronenvolt. Es sieht also so aus, als ob die nackte Masse und die Strahlungsmasse fast exakt entgegengesetzt gleich groß wären und sich über viele Größenordnungen kompensieren.

Von neuen Symmetrien und Unteilchen

Formal stellt dies zwar kein Problem dar, aber eine solche enorme Feinjustierung schreit förmlich nach einer Erklärung. Schließlich handelt es sich bei nackter und Strahlungsmasse um zwei völlig verschiedene Dinge. Warum sollten sie also über dreißig Größenordnungen denselben Zahlenwert aufweisen? Eine Lösung dieses Feinjustierungsproblems könnte sein, dass das Standardmodell bereits bei relativ niedrigen Energien – beziehungsweise großen Abständen – durch eine übergeordnete Theorie ersetzt wird. In den meisten Fällen resultieren solche Theorien in neuen Teilchen, die dann am LHC entdeckt werden könnten.

Abgebildet ist eine alte Waage mit zwei Waagschalen. Die nackte Masse als Kugel auf der einen, die Strahlungsmasse als Tetraeder auf der anderen Seite. Der Zeiger der Waage steht genau auf 125 Gigaelektronenvolt.
Nackte Masse und Strahlungsmasse

Die neuen Theorien sind also weder durch irgendwelche inneren Widersprüche des Standardmodells noch durch experimentelle Zwänge motiviert, sondern allein durch Ästhetik. Das Feinjustierungsproblem war in den vergangenen Jahrzehnten wohl die wichtigste Triebfeder beim sogenannten Model Building – der Suche nach Modellen jenseits des Standardmodells. Oft entstehen dabei geniale, revolutionäre, mitunter vielleicht sogar abstruse Ideen, die neue Symmetrien, zusätzliche Raumdimensionen oder völlig neuartige Objekte wie beispielsweise „Unteilchen“ postulieren, und natürlich alle möglichen Kombinationen davon. Die Entdeckung des neuen Teilchens am LHC und das gleichzeitige Fehlen von Signalen anderer neuer Teilchen bedeutet für viele dieser Ideen allerdings das abrupte und definitive Ende.

Physiker und Philosophen stellen sich gleichermaßen die Frage, ob das schwer quantifizierbare Problem der Feinjustierung (Wie viel Feinjustierung ist erlaubt?) wirklich das Kriterium für neuartige Theorien sein kann, oder ob es sich dabei nur scheinbar um ein Problem handelt. Auch diese Frage verschärft sich vor dem Hintergrund der bisherigen Ergebnisse des LHC.

Bislang gibt es keinen Hinweis darauf, dass eine der vorgeschlagenen neuen Theorien verwirklicht ist. Viele Theorien, die das Feinjustierungsproblem lösen oder umgehen wollen, führen zu Ergebnissen, die im Widerspruch zu Messungen stehen. Dies bewirkt eine hohen Dynamik bei der Entwicklung von Modellen, die oft auf sehr eleganten Ideen beruhen, dann aber sehr unattraktiven Modifikationen unterworfen werden müssen, um im Einklang mit den Messungen zu bleiben. Theorien werden zwar selten verworfen, aber oft irgendwann nur noch von einigen hartgesottenen Anhängern verfolgt.

Sollte das Feinjustierungsproblem allerdings real sein, dürfte es in einem Energiebereich gelöst werden, in den der LHC in den nächsten fünf bis sechs Jahren vordringen soll. Dann lassen sich auch Teilchen aufspüren, die bis zu zehnmal schwerer sind als das im Juni 2012 entdeckte Boson. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Komponenten des Lebens und ihre Funktion

Die Biophysik bildet die Brücke zwischen der Physik und den Lebenswissenschaften. Sie ist eng mit der Physik Weicher Materie und Komplexer Systeme verknüpft und viele Fragestellungen sind Bestandteil der Statistischen Physik geworden. Dabei verfolgt die Biophysik mehrere Stoßrichtungen.

Die eine versucht, Methoden zu entwickeln, um die Architektur biologischer Materialien von molekularen bis makroskopischen Skalen zu untersuchen und ihre physikalischen Eigenschaften unter möglichst natürlichen Bedingungen zu messen – in „vivo“, sagt der Biologe. Entdeckungsfreudige Physiker finden eine breite Spielwiese, um mit einfachen Methoden wie optischen und magnetischen Pinzetten oder einer Glaspipette, gepaart mit einem guten Mikroskop, die physikalischen Eigenschaften der Zellen zu studieren.

Dreidimensionale Darstellung der Struktur des Proteins GGA1.
Struktur eines Proteins

Große Maschinen hingegen sind notwendig, um die Struktur und Dynamik biologischer Materialien mittels Neutronen- und Röntgenbeugung zu erforschen. Moderne Methoden der Röntgenbeugung mit fokussierten Strahlen eröffnen dabei auch völlig neue Einblicke in die molekulare Architektur von Gewebe, Knochen oder Holz. Zudem verspricht die Entwicklung der Spallations-Neutronenquellen und des Freien Elektronenlasers neue Einsichten in die molekulare Basis des molekularen Erkennens zwischen Proteinen und DNS oder die physikalischen Grundlagen der Proteinfaltung.

Biologie als Vorbild

Eine zweite Forschungsrichtung ist die von der Biologie inspirierte Physik. Sie versucht möglichst realistische Modelle lebender Materie – wie Membranen, Gewebe oder Knochen – aufzubauen, um spezifische biologische Prozesse zu imitieren. Solche Modelle spielen eine wichtige Rolle, um etwa die Verlässlichkeit neuer physikalischer Methoden zu testen oder um nach den wesentlichen physikalischen Parametern zu suchen, welche das biologische Verhalten eines Systems bestimmen.

Parallele Untersuchungen natürlicher Systeme und von Modellen helfen auch, Bezüge zur Physik Kondensierter Materie herzustellen. Im Hintergrund steht der Gedanke, die Strategie der biologischen Selbstorganisation zur Herstellung neuartiger smarter Materialien einzusetzen. Beispiele dieses Bionik genannten Gebietes sind Materialien, die ihre Eigenschaften an wechselnde Umgebungsbedingungen anpassen können, wie selbst reinigende Oberflächen oder bruchfeste Keramiken, wie sie in Prozessen der Biomineralisierung entstehen.

Im Grenzbereich zwischen Physik und Technik sind Bemühungen angesiedelt, Methoden der Navigation in der Tierwelt zu imitieren. Beispielsweise inspirierte die Echoortung der Fledermaus die Radartechniker zum Bau des Zirp-Radars. Auch beim Bau von Robotern lässt man sich gern von der Biologie inspirieren: Zahlreiche Arbeitsgruppen versuchen, die Fähigkeit der Insekten und Salamander des Hochlaufens an Wänden zu imitieren. Roboter zum Fensterputzen wären eine passende Umsetzung des Prinzips.

Ein anderer zukunftsträchtiger Zweig der angewandten Biologischen Physik ist der Bau von Biosensoren durch den Aufbau von Enzymsystemen, Biomembranen oder Nervenzellen auf elektro-optischen Bauelementen. Ein Beispiel sind zweidimensionale Anordnungen von Punkt-Transistoren, die als Nano-Voltmeter fungieren. Hier sitzen auch zahlreiche Querverbindungen zur Nanotechnik oder Mikrooptik, denn die dort entwickelten Methoden eröffnen neue Möglichkeiten zur Messung physikalischer Eigenschaften der Zellen in natürlicher Umgebung.

Komplexe Wechselwirkungen erfassen

Dargestellt ist eine Nervenzelle mit Axonen.
Neuron

Auf fundamentalere Fragen der Biologie zielt die oft als Systembiophysik bezeichnete Erforschung der Regulation biologischer Prozesse durch das Wechselspiel zwischen biochemischen und genetischen Signalkaskaden, der dadurch bedingten Modifikation der Materialeigenschaften und der biologischen Funktion. Hier arbeiten Physiker, Mathematiker und Ingenieure miteinander. Eine besonders faszinierende Fragestellung dieser Kategorie ist die Entwicklung vom befruchteten Ei zum Embryo, oft Morphogenese genannt. Was steuert die Differenzierung der zunächst völlig identisch erscheinenden Zellen des befruchteten Eis in Neuronen oder Muskelzellen und was legt den Zeitplan der embryonalen Entwicklung fest? Ist dies alles im genetischen Code vorbestimmt oder bestimmt die Kopplung zwischen externen äußeren Kräften – wie chemischen Potentialen oder mechanischen Kräften – und dem genetischen Apparat den Prozess der Morphogenese?

Alan Turing, der geistige Vater des Programmierens, lehrte erstmals, wie raum-zeitliche Muster, etwa von Signalmolekülen, die dann die Entwicklung von Organen steuern, allein durch das Zusammenspiel chemischer Potenziale und autokatalytischer Prozesse entstehen können. Zwar ist die Entwicklung vom befruchteten Ei zum ausgewachsenen Lebewesen vor allem durch die zeitliche Folge der Gen-Expression bestimmt, doch zeigt sich auch immer mehr, dass die Zell-Zell-Erkennung und insbesondere mechanische Kräfte die Differenzierung und räumliche Organisation der Zellen steuern können. Die Aufklärung des Wechselspiels zwischen Morphogenese und der Physik der Zelle ist eine besonders reizvolle Aufgabe für Experimentatoren und Theoretiker.

Immer mehr Physiker finden außerdem Interesse an der Hirnforschung und versuchen zu verstehen, wie das Gehirn die Umwelt wahrnimmt. Ein Meilenstein auf dem Weg zur quantitativen Hirnforschung war die Entdeckung, dass optische Muster, die auf die Netzhaut der Augen projiziert werden, im visuellen Cortex als Erregungsmuster abgebildet werden. Diese Experimente brachten der Physik neuronaler Netzwerke einen enormen Aufschwung. (Quelle: Welt der Physik, Lizenz: CC by-nc-nd)

Buchtipp:
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Primäres Bewusstsein bei Mikroben entdeckt

Prokaryoten umfassen die Bakterien und Archaeen, also die einfachsten und frühesten Lebewesen, die wir kennen. Es sind Mikroben ohne Zellkern, die aber ein Chromosom besitzen, mit dessen Hilfe sie sich fortpflanzen. Im Rahmen der Bewusstseinsforschung stellt sich die Frage, ab welcher Stufe der Evolution sich ein rudimentäres Bewusstsein zeigt. Durch raffinierte Tests hat man vor einigen Jahren herausgefunden, dass Schimpansen, Elefanten oder Raben Bewusstsein zeigen. Nun kann man aber auch primäres Bewusstsein bei Prokaryoten nachweisen.

Primäres Bewusstsein ist eine einfache Bewusstseinsform, die etwa mit den Funktionen eines Unterbewusstseins vergleichbar ist. Es beinhaltet nicht das Selbst- oder Ich-Bewusstsein, das wir von uns Menschen kennen. Bewusstsein ist ein informationsverarbeitender Prozess und dient einem Lebewesen dazu, sich auf neue Anforderungen oder geänderte äußere Umstände einzustellen. Wenn das Lebewesen zwischen möglichen Handlungsalternativen auf nicht determinierte Weise entscheidet und die Entscheidung zur Befriedigung seiner Bedürfnisse dient, dann kann man zumindest von primärem Bewusstsein ausgehen (zur Definition von Bewusstsein siehe: Klaus-Dieter Sedlacek, „Der Widerhall des Urknalls“, Norderstedt 2012, S. 148). Andererseits kann man nicht von primärem Bewusstsein ausgehen, wenn Handlungen ausschließlich eine automatische Reaktion auf Umweltreize sind und keinerlei Entscheidungen zwischen Alternativen erkennen lassen.

Prokaryoten haben Geißeln, um sich schwimmend fortbewegen zu können. Die Beweglichkeit kann ihnen nur nützen, wenn sie erkennen, wohin sie schwimmen sollen. Aus ihrer Orientierungsreaktion (Taxis), das heißt, ihrer Ausrichtung nach einem Reiz oder einem Umweltfaktor lassen sich Rückschlüsse auf jenen informationsverarbeitenden Prozess ziehen, der eine Voraussetzung für Bewusstsein ist. Man unterscheidet zum Reiz gerichtete Reaktionen und vom Reiz weggerichtete Meide- oder Schreckreaktionen (negative Taxis).

Bei einer Chemotaxis erfolgt beispielsweise die Ausrichtung nach der Konzentration eines Stoffes. Aerotaxis ist die Orientierung zum Sauerstoff. Es handelt sich um eine besondere Form von Chemotaxis oder Energietaxis. Phototaxis ist die Orientierung an der Helligkeit und Farbe des Lichts und Galvanotaxis die Orientierung an elektrischen Feldern um nur ein paar Taxisarten zu nennen. Im Internet findet sich ein kleines Video über das Pantoffeltierchen (Paramecium), wie es sich an einem elektrischen Feld ausrichtet (https://youtu.be/-U9G0Xhp3Iw).

Viele Bakterien können gleichzeitig die Konzentration von Futtersubstanzen, Sauerstoff oder Licht erkennen und sich danach ausrichten. Solange sie z.B. keine Futtersubstanz erkennen, schwimmen sie eine Zeit lang in eine zufällige Richtung und wechseln anschließend die Richtung, um wieder eine Zeit lang in eine andere Richtung weiterzuschwimmen. Bei geringer werdender Konzentration wechseln sie häufig die Richtung, bei zunehmender Konzentration schwimmen sie dagegen zielgerichteter zum Ort der höheren Konzentration. Sie zeigen ein gleiches Verhalten in Bezug auf die Sauerstoffkonzentration und auf Licht (vgl. Cypionka, „Grundlagen der Mikrobiologie“, 3. Aufl., Springer 2006, S. 33f.)

Aus dem Verhalten kann man ableiten, dass die Bakterien zeitlich auflösen können, ob die Konzentration geringer oder stärker wird. Sie können also Änderungen in den Umweltbedingungen feststellen, indem sie einen vorherigen Zustand auf irgendeine Weise speichern. Schon allein dadurch erkennt man das Vorhandensein eines informationsverarbeitenden Prozesses. Die Mikroben zeigen zudem ein Bedürfnis (= Neigung ein Ziel zu verfolgen), zum Ort der höheren Futter- oder Sauerstoffkonzentration zu schwimmen.

Es kann aber auch vorkommen, dass zwei unterschiedliche Bedürfnisse nicht miteinander vereinbar sind. Beispielsweise kann die höhere Sauerstoffkonzentration entgegengesetzt vom Ort der höheren Futterkonzentration liegen. Zwischen den beiden Orten, an denen je ein anderes Bedürfnis befriedigt wird, gibt es eine Stelle, an der die Bewertung, welcher Reiz stärker ist, gleich ausfällt. Der Mikrobe muss sich entscheiden, welchem Reiz sie nachgeht, d.h., zu welchem Ort sie schwimmen soll. Die Entscheidung kann nicht determiniert fallen, weil vorausgesetzt wird, dass die Stärke der Reize von der Mikrobe gleich bewertet wird. Wir haben es in diesem Fall mit einer nicht determinierte Entscheidung zwischen Handlungsalternativen zu tun. Es ist die Entscheidung in die eine oder in die andere Richtung zur Befriedigung eines Bedürfnisses zu schwimmen.

Zusammenfassend gilt: Im Verhalten der Mikroben kann man einen informationsverarbeitenden Prozess erkennen, der bei Änderungen der Konzentration verschiedener Stoffe, also der Umweltbedingungen, eine nicht determinierte Entscheidung zwischen Handlungsalternativen trifft, die zum zielgerichteten Verhalten zur Befriedigung von Bedürfnissen führt. Das bedeutet: Mikroben zeigen primäres Bewusstsein. – Klaus-Dieter Sedlacek

Buchtipps:

 

Elektronen gleichzeitig an zwei verschiedenen Orten

Nach einem grundlegenden Theorem der Quantenmechanik sind bestimmte Elektronen in ihrem Ort nicht eindeutig bestimmbar. Zwei Physikern der Universität Kassel ist nun gemeinsam mit Kollegen in einem Experiment der Beweis gelungen, dass sich diese Elektronen tatsächlich an zwei Orten gleichzeitig aufhalten.

„Vermutet hat man dieses für den Laien schwer verständliche Verhalten schon lange, aber hier ist es zum ersten Mal gelungen, dies experimentell nachzuweisen“, erläuterte Prof. Dr. Arno Ehresmann, Leiter des Fachgebiets „Funktionale dünne Schichten und Physik mit Synchrotronstrahlung“ an der Universität Kassel. „In umfangreichen Versuchen haben wir an Elektronen von Sauerstoff-Molekülen die zum Beweis dieser Aussage charakteristischen Oszillationen nachgewiesen.“ Dr. André Knie, Mitarbeiter am Fachgebiet und Geschäftsführer des LOEWE-Forschungs-Schwerpunkts „Elektronendynamik chiraler Systeme“, ergänzte: „Dieses Experiment legt einen Grundstein für das Verständnis der Quantenmechanik, die uns wie so oft mehr Fragen als Antworten gibt. Besonders die Dynamik der Elektronen ist ein Feld der Quantenmechanik, dass zwar schon seit 100 Jahren untersucht wird, aber immer wieder neue und verblüffende Einsichten in unsere Natur ermöglicht.“

Die theoretischen Grundlagen für die Entdeckung gehen auf Albert Einstein zurück. Er erhielt für die Beschreibung des sogenannten Photoeffekts 1922 den Physik-Nobelpreis. Danach können Elektronen aus Atomen oder Molekülen mit Hilfe von Licht dann entfernt werden, wenn die Energie des Lichts größer ist als die Bindungsenergie der Elektronen. Einstein hat schon 1905 die mathematische Beschreibung dieses sogenannten Photoeffekts abgeleitet, in dem er damals Unerhörtes annahm: Licht wird dazu als ein Strom aus Lichtteilchen beschrieben und je ein Lichtteilchen („Photon“) übergibt seine Energie an je ein Elektron. Übersteigt diese Energie die Energie, mit dem das Elektron an das Atom gebunden ist, wird das Elektron freigesetzt. Soweit wurde diese Annahme später auch experimentell bestätigt.

Einstein weitergedacht

Darauf aufbauend lässt sich das Verhalten von Elektronen weiter untersuchen. In einem zweiatomigen Molekül, das aus zwei gleichen Atomen zusammengesetzt ist (z. B. das Sauerstoffmolekül O2) gibt es Elektronen, die sehr eng an das jeweilige Atom gebunden sind. Im Teilchenbild könnte man sich vorstellen, dass diese Elektronen um das jeweilige Atom kreisen. Nach der Quantenmechanik sind diese Elektronen allerdings nicht zu unterscheiden. Für ein Photon mit einer Energie, die größer ist als die Bindungsenergie dieser Elektronen (für beide Elektronen ist die Bindungsenergie gleich) stellt sich nun die Frage: An welches dieser beiden für mich als Photon nicht zu unterscheidenden Elektronen gebe ich meine Energie ab? Die Antwort der Quantenmechanik lautet: Das Photon gibt seine Energie zwar an ein einziges Elektron ab, aber dieses befindet sich mit einer gewissen Wahrscheinlichkeit gleichzeitig nahe bei Atom 1 und nahe bei Atom 2 (das Gleiche gilt für das andere Elektron). Und: Elektronen sind auch als Welle verstehbar, genauso wie damals Einstein zur Beschreibung des Lichts Teilchen angenommen hat. Wird nun ein einziges Elektron vom Atom entfernt, so laufen die zugehörigen Wellen sowohl von Atom 1 aus, als auch von Atom 2, da sich dieses Elektron ja gleichzeitig da und dort befindet. Seit langem wurde daher schon vorhergesagt, dass sich diese beiden Wellen überlagern müssen und damit interferieren. Experimentell war der Nachweis dieser Interferenzmuster bis dato noch nicht gelungen.

Genau dies glückte jedoch nun der Forschungsgruppe, an der die Kasseler Physiker Ehresmann und Knie beteiligt waren – ein eindeutiger Beleg, dass sich ein Elektron gleichzeitig an zwei verschiedenen Orten aufhält. Die Experimente wurden an den Synchrotronstrahlungsanlagen DORIS III bei DESY in Hamburg sowie BESSY II in Berlin durchgeführt. Dabei wurde monochromatische Synchrotronstrahlung auf gasförmige Moleküle fokussiert. Diese wurden durch die Strahlung ionisiert und die bei der Ionisation freiwerdenden Elektronen durch sogenannte Elektronenspektrometer winkel- und energieaufgelöst detektiert. (Quelle: idw)

Buchtipps:

 

Ein Wissensmagazin des Autors Klaus-Dieter Sedlacek mit populären und spannenden Berichten über das Wissen von der Antike bis zur Zukunft

Translate »