Neuerscheinung: “Die letzten Ursachen”

Die letzten Ursachen - Buchcover ISBN 978-3-7392-1823-6
Die letzten Ursachen – Buchcover ISBN 978-3-7392-1823-6

Die Säulen naturwissenschaftlicher Welterkenntnis, Quantenphysik oder Relativitätstheorie basieren auf für Uneingeweihte viel zu abstrakten Formeln. Deshalb bedarf es der Naturphilosophie. Sie versucht die Strukturen der Natur mit Worten zu beschreiben, anschaulich zu erklären und zu deuten. Neue Erkenntnisse über Bewusstsein, Information und einen physikalischen Bereich jenseits von Raum und Zeit werden in „Die letzten Ursachen“ gemeinverständlich dargestellt. Neuerscheinung: “Die letzten Ursachen” weiterlesen

Wie Exoplaneten entdeckt werden können

Das bunte Spektrum des Lichts trifft auf einen Frequenzkamm, der durch ein gelbes Band mit weißen Linien dargestellt ist.

Frequenzkämme

Um hochfrequente Schwingungen zu messen, nutzen Forscher ein ganz spezielles Lineal – den sogenannten Frequenzkamm, für den es 2005 den Nobelpreis für Physik gab. Inzwischen kommt das Laserlineal in vielen Gebieten zum Einsatz.

Sichtbares Licht besitzt Frequenzen im Bereich von Hunderten von Terahertz. Diese Frequenzen lassen sich elektronisch nicht direkt messen oder zählen. Man muss also ein Hilfsmittel erfinden, das diese Frequenzen der elektronischen Messtechnik zugänglich macht. Dieses Hilfsmittel ist der Frequenzkamm, eine besondere Art von Laser. Ein handelsüblicher roter Laser sendet eben nur rotes Licht aus – der Laser des Frequenzkamms hingegen strahlt weiß, ähnlich wie Sonnenlicht. Zerlegt man das weiße Sonnenlicht mit einem Prisma in seine Einzelteile, wird man alle Farben des Regenbogens beobachten. Dies ist das Spektrum des Sonnenlichts. Auch der Frequenzkamm deckt den gesamten Wellenbereich des sichtbaren Lichts ab, allerdings ist sein Spektrum nicht kontinuierlich. Er sendet nur bestimmte Frequenzen aus.

Tobias Wilken: „Das Fantastische am Frequenzkamm ist, dass der Abstand zwischen jeder einzelnen dieser Frequenzen exakt gleich ist, wobei der Abstand im Radiofrequenzbereich liegt. Das heißt, auch wenn jede Frequenz, die dieser Laser emittiert, im optischen Bereich liegt, also bei Hunderten von Terahertz, so liegt der Abstand zwischen den Frequenzen im Radiofrequenzbereich, also bei unter einem Gigahertz.“

Mit dem Frequenzkamm lassen sich optische Frequenzen deshalb mit äußerster Präzision vermessen, weshalb man ihn auch als Laserlineal für Licht bezeichnet. Zum Einsatz kommt dieses Lineal zum Beispiel bei Lasern, die kontinuierlich Licht abstrahlen – sogenannte Continuous-Wave- oder kurz CW-Laser. Wie Exoplaneten entdeckt werden können weiterlesen

Geheimnisvolle Signale aus einer fernen quantenkosmologischen Vergangenheit

Was passierte bei der Geburt des Weltalls? Wie konnten sich Sterne, Planeten und ganze Galaxien überhaupt bilden? Das sind die Fragen, die Viatcheslav Mukhanov mit seinen Berechnungen zu beantworten versucht. Mukhanov ist Physik-Ordinarius an der LMU und Experte für Theoretische Quantenkosmologie. Und es ist seine Idee der Quantenfluktuationen, die ein entscheidendes Moment in der Startphase des Universums beschreibt: Ohne die Dichteschwankungen, die aus den minimalen Fluktuationen entstehen, lässt sich die spätere Verteilung der Materie und die Bildung von Sternen, Planeten und Galaxien schwerlich erklären.

Jetzt hat das Planck-Konsortium neue Auswertungen von Messergebnissen veröffentlicht. Das Weltraumteleskop hat die kosmische Hintergrundstrahlung vermessen und damit ein Abbild des frühen Universums geliefert. Diese neuen Planck-Daten decken sich exakt mit den Berechnungen des LMU-Kosmologen, etwa für die entscheidende Größe des sogenannten Spektralindexes. „Die Planck-Daten haben die grundlegende Voraussage bestätigt, dass Quantenfluktuationen am Anfang aller Strukturen im Universum stehen“, bekräftigt Jean-Loup Puget, der leitende Wissenschaftler des HFI-Instruments der Planck-Mission. „Besser könnte meine Theorie nicht bestätigt werden“, sagt Mukhanov. Schon 1981 hatte der Wissenschaftler, seit 1997 an der LMU, seinen Ansatz erstmals publiziert.

Spuren aus ferner Vergangenheit

Dass auch die Quanten im frühen Universum gewissen Fluktuationen unterlegen haben müssen, ergibt sich für Mukhanov aus der Heisenbergschen Unschärferelation. Sie besagt, dass sich Ort und Impuls eines Teilchens nicht exakt angeben lassen. Aus den submikroskopisch winzigen Fluktuationen entstanden makroskopische Dichteschwankungen. Ohne diesen Mechanismus, dessen genaue Ausprägung und Größenordnung Mukhanov berechnet, ließe sich die Verteilung von Materie im heutigen Universum nicht vorhersagen.

Die neuen Planck-Datensätze sind noch detaillierter und aussagekräftiger als die ersten Auswertungen, die vor knapp zwei Jahren veröffentlicht wurden. Mit niemals zuvor erreichter Präzision zeigen sie die Muster, mit denen sich die Fluktuationen in die Strahlung des jungen Universums eingebrannt haben. Als eine Botschaft aus ferner Vergangenheit können Teleskope wie Planck sie heute – 13,8 Milliarden Jahre später – als Mikrowellenstrahlung einfangen. So geben die Planck-Messungen Aufschluss über die Geburt des Weltalls.

Gravitationswellen nicht beglaubigt

Die Existenz von sogenannten primordialen Gravitationswellen konnten die Planck-Daten indes nicht zeigen. Diese weiteren lange gesuchten Signale des fernen Urknalls meinte das BICEP2-Team aus seinen Daten herauslesen zu können, das Teleskop vermisst von der Antarktis aus die kosmische Hintergrundstrahlung. Im März 2014 meldete das Team seine sensationelle Entdeckung – vorschnell, wie sich bald herausstellte. Und soeben veröffentlichten Planck- und BICEP2-Forscher gemeinsam einen Abgleich ihrer Daten, der keinen Nachweis der Gravitationswellen erbrachte. LMU-Forscher Mukhanov hatte schon im Frühjahr 2014 erklärt, dass die Ergebnisse von BICEP2 und Planck nicht gleichzeitig stimmen können. „Gravitationswellen mag es trotzdem geben“, sagt der LMU-Wissenschaftler. „Aber unsere Messgeräte sind offenbar noch nicht genau genug.“ Doch unabhängig davon, ob ein tatsächlicher Nachweis der Gravitationswellen gelingt: Ohne den Mechanismus der Quantenfluktuation, ergänzt Mukhanov, kommt kein Modell aus, das erklären soll, was unmittelbar nach dem Urknall geschah. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Was ist eigentlich Entropie?

Entropie

Die Entropie wird oft missverständlich als eine Art „Unordnung“ bezeichnet. Doch das greift viel zu kurz. Einst eingeführt, um den begrenzten Wirkungsgrad von Dampfmaschinen zu erklären, wird der Begriff heute auch in vielen anderen Disziplinen genutzt.

Kaum ein Begriff der Physik wird so gerne außerhalb der Physik benutzt – und so oft abweichend von seiner eigentlichen Bedeutung – wie der der Entropie. Dabei hat der Begriff durchaus eine eng umrissene Bedeutung. Eine konkrete Definition dieser physikalischen Größe stellte der österreichische Physiker Ludwig Boltzmann in der zweiten Hälfte des 19. Jahrhunderts auf. Er konzentrierte sich auf das mikroskopische Verhalten eines Fluids, also eines Gases oder einer Flüssigkeit. Die ungeordnete Bewegung von Atomen oder Molekülen darin verstand er dabei als Wärme, was für seine Definition entscheidend war.

Entropie in der Badewanne

In einem abgeschlossenen System mit festem Volumen und fixer Teilchenzahl, so legte Boltzmann fest, ist die Entropie proportional zum Logarithmus der Anzahl von Mikrozuständen in dem System. Unter Mikrozuständen verstand er alle Möglichkeiten, wie sich die Moleküle oder Atome des eingesperrten Fluids anordnen können. Seine Formel definiert die Entropie somit als ein Maß für die „Anordnungsfreiheit“ der Moleküle und Atome: Steigt die Zahl der einnehmbaren Mikrozustände, dann wächst die Entropie. Gibt es weniger Möglichkeiten, wie sich die Teilchen des Fluids anordnen können, ist die Entropie kleiner.

Boltzmanns Formel wird oft so interpretiert, als sei die Entropie gleichbedeutend mit „Unordnung“. Dieses vereinfachte Bild führt allerdings leicht in die Irre. Ein Beispiel dafür ist der Schaum in einer Badewanne: Wenn die Bläschen zerplatzen und die Wasseroberfläche glatt wird, hat es den Anschein, als nehme die Unordnung ab. Die Entropie tut das aber nicht! Tatsächlich nimmt sie sogar zu, denn nach dem Zerplatzen des Schaums ist der mögliche Aufenthaltsraum für die Moleküle der Flüssigkeit nicht mehr auf die Außenhäute der Bläschen beschränkt – die Zahl der einnehmbaren Mikrozustände hat sich also vergrößert. Die Entropie ist gewachsen.

Mithilfe der Boltzmannschen Definition lässt sich eine Seite des Begriffs verstehen – doch die Entropie hat auch eine andere, makroskopische Seite, die der deutsche Physiker Rudolf Clausius bereits einige Jahre zuvor aufgedeckt hatte. Zu Beginn des 18. Jahrhunderts wurde die Dampfmaschine erfunden, eine klassische Wärmekraftmaschine. Wärmekraftmaschinen wandeln einen Temperaturunterschied in mechanische Arbeit um. Physiker versuchten damals zu begreifen, welchen Prinzipien diese Maschinen gehorchen. Die Forscher stellten nämlich irritiert fest, dass sich nur ein paar Prozent der thermischen Energie in mechanische Energie umwandeln ließen. Der Rest ging irgendwie verloren – ohne dass sie den Grund verstanden.

Wertigkeit der Energie

Der Theorie der Thermodynamik schien ein physikalisches Konzept zu fehlen, das die unterschiedliche Wertigkeit der Energie berücksichtigt und die Fähigkeit begrenzt, thermische Energie in mechanische Energie umzuwandeln. In Gestalt der Entropie kam die Lösung. Mitte des 19. Jahrhunderts führte Clausius den Begriff als thermodynamische Größe ein und definierte ihn als makroskopisches Maß für eine Eigenschaft, die die Nutzbarkeit von Energie begrenzt.

Clausius zufolge hängt die Entropieänderung eines Systems von der zugeführten Wärme und der dabei herrschenden Temperatur ab. Zusammen mit Wärme wird immer Entropie übertragen, so sein Fazit. Darüber hinaus stellte Clausius fest, dass die Entropie in geschlossenen Systemen, anders als die Energie, keine Erhaltungsgröße ist. Diese Erkenntnis ging als der zweite Hauptsatz der Thermodynamik in die Physik ein:

„In einem geschlossenen System nimmt die Entropie niemals ab.“

Die Entropie nimmt demnach immer zu oder bleibt konstant. Damit wird in die Physik geschlossener Systeme ein Zeitpfeil eingeführt, denn bei wachsender Entropie sind thermodynamische Prozesse in geschlossenen Systemen unumkehrbar (oder irreversibel).

Reversibel (umkehrbar) wäre ein Prozess nur dann, wenn die Entropie konstant bliebe. Das ist aber bloß theoretisch möglich. Alle realen Prozesse sind irreversibel. Frei nach Boltzmann kann man auch sagen: Die Zahl der möglichen Mikrozustände nimmt jederzeit zu. Diese mikroskopische Interpretation erweitert die thermodynamisch-makroskopische Interpretation durch Clausius. Durch die Entropie ließ sich das Rätsel um die verschwundene Energie in Wärmekraftmaschinen endlich auflösen (siehe Kasten). Ständig entzieht sich ein Teil der Wärmeenergie der mechanischen Nutzbarkeit und wird wieder abgegeben, weil die Entropie in geschlossenen Systemen nicht abnehmen darf.

Vielseitiger Einsatz

Seit den Erkenntnissen von Clausius und Boltzmann ist die Entropie auch in andere Bereiche der Physik eingezogen. Sogar außerhalb der Physik griff man sie auf, jedenfalls als mathematisches Konzept. Beispielsweise führte der US-amerikanische Mathematiker und Elektrotechniker Claude Shannon im Jahr 1948 die sogenannte Informationsentropie ein. Mit dieser Größe charakterisierte er den Informationsverlust in Übertragungen per Telefonleitung.

Auch in der Chemie und Biologie spielt die Entropie eine Rolle: In bestimmten offenen Systemen können sich neue Strukturen bilden, sofern Entropie nach außen abgegeben wird. Es muss sich dabei um sogenannte dissipative Systeme handeln, bei denen also Energie in thermische Energie umgewandelt wird. Diese Theorie der Strukturbildung stammt vom belgischen Physikochemiker Ilya Prigogine. Bis heute werden Arbeiten veröffentlicht, in denen der physikalischen Tragweite des Konzepts neue Aspekte hinzugefügt werden.

Wirkungsgrad und Entropie

Warum ist der Wirkungsgrad von Wärmekraftmaschinen begrenzt? Rudolf Clausius löste dieses Rätsel, indem er den Begriff der Entropie einführte. Der Physiker betrachtete den Kreisprozess einer idealisierten Wärmekraftmaschine, bei dem sich Expansion und Kompression unter isothermen (konstante Temperatur) und isentropen (konstante Entropie) Bedingungen abwechseln. Durch Verknüpfung der Energieerhaltung mit dem zweiten Hauptsatz der Thermodynamik ergibt sich in diesem sogenannten Carnotprozess die folgende Ungleichung für den Wirkungsgrad:

η≤(T1T2)/T1

T1 und T2 sind die beiden Temperaturen, zwischen denen der Kreisprozess betrieben wird. Der maximal erreichbare Wirkungsgrad einer Wärmekraftmaschine ist also durch thermodynamische Gesetzmäßigkeiten begrenzt. Ein Beispiel: Wird die Maschine zwischen 100 und 200 Grad Celsius betrieben, dann liegt der maximal erreichbare Wirkungsgrad bei rund 27 Prozent (die Temperaturwerte müssen in der Einheit Kelvin in die Formel eingesetzt werden).

Aus der Energieerhaltung und dem zweiten Hauptsatz der Thermodynamik lassen sich auf mathematischem Weg auch noch zwei weitere nützliche Erkenntnisse ableiten: Wärme kann nur dann von einem kalten auf einen warmen Körper übergehen, wenn Arbeit aufgewendet wird – Kühlschränke und Wärmepumpen benötigen eine Energiezufuhr. Zweitens lässt sich mit einem Wärmereservoir konstanter Temperatur keine Arbeit verrichten. Dazu ist immer der Fluss von Wärme zwischen Reservoirs unterschiedlicher Temperatur notwendig.

Entropie in Formeln

Der Begriff Entropie ist eine Neubildung durch Rudolf Clausius aus griechischen Wörtern und bedeutet übersetzt ungefähr „Wandlungsgehalt“. Laut dem Physiker hängt die Entropieänderung ΔS eines Systems folgendermaßen mit der zugeführten Wärme und der Temperatur zusammen:

ΔS=ΔQ/T

Dabei bezeichnet ΔQ eine kleine, dem System reversibel zugeführte Wärmemenge und T die Temperatur, die bei dieser Übertragung herrscht. Die Formel besagt, dass zusammen mit Wärme immer Entropie übertragen wird. Boltzmanns Definition der Entropie beruht auf dem Verständnis der Wärme als ungeordnete Bewegung von Atomen oder Molekülen. Ihm zufolge ist die Entropie S durch folgende Formel gegeben:

S=k lnW

Die Entropie ist also proportional zum Logarithmus der Zahl W der „Mikrozustände“ eines Systems, wobei alle anderen Parameter – wie Volumen und Teilchenzahl – konstant sind. Mit den Mikrozuständen sind die Möglichkeiten gemeint, wie die Moleküle oder Atome eines eingesperrten Fluids angeordnet sein können. Die Konstante k ist die Boltzmann-Konstante.

Autor: Sven Titz; Quelle: Welt der Physik; Lizenz: CC by-nc-nd

Merken

Merken

Geistermaterie lauert in der Milchstraße

Eine mysteriöse Form von Materie durchzieht unser Universum. Sie ist etwa fünf Mal häufiger als die sichtbare Materie, jedoch von nach wie vor unbekannter, „dunkler“ Natur. Dass diese mysteriöse Entität, der man den Namen “Dunkle Materie” oder Geistermaterie gab, existieren muss, belegten Forschungsarbeiten bereits in den 1970er Jahren. Erstmals ist es nun einem internationalen Wissenschaftlerteam gelungen, Dunkle Materie auch im Inneren unserer Galaxie zu belegen. Woraus Dunkle Materie  besteht, konnte allerdings nicht herausgefunden werden.

Die allgegenwärtige Präsenz der Dunklen Materie im Universum ist heute ein zentraler Grundsatz der modernen Kosmologie und Astrophysik. In verschiedenen Galaxien wurde ihre Existenz seit den 1970er Jahren mit einer Reihe von Methoden belegt. Eine dieser Methoden ist die Messung der Drehgeschwindigkeit von Gas und Sternen. Wissenschaftler können so eine Galaxie „wiegen“ und ihre Gesamtmasse bestimmen. Dabei zeigt sich, dass die gewöhnliche Materie nur einen Bruchteil des Gesamtgewichts ausmacht, den überwiegenden Teil trägt die Dunkle Materie bei.

Auch in den äußeren Bereichen unserer eigenen Galaxie, die wir bei klarem Nachthimmel als „Milchstraße“ sehen können, wurden die Astronomen mit diese Methodik fündig. Doch im inneren Bereich unserer Galaxie war es bisher unmöglich, die Anwesenheit Dunkler Materie sicher zu belegen.

Der Durchmesser unserer Galaxie beträgt etwa 100.000 Lichtjahre. Unser Sonnensystem ist etwa 26.000 Lichtjahre vom Zentrum der Milchstraße entfernt. Je näher man der Mitte kommt, desto schwieriger wird es, die Rotation des Gases und der Sterne mit der benötigten Genauigkeit zu messen.

Auf Basis der Messung von Sternenbewegungen haben nun Wissenschaftler der Technischen Universität München (TUM), der Universität Stockholm, der Freien Universität Madrid, des Internationalen Zentrums für Theoretische Physik des Südamerikanischen Instituts für Grundlagenforschung (ICTP-SAIFR) in São Paulo und der Universität Amsterdam erstmalig einen Beweis für die Anwesenheit Dunkler Materie im Inneren der Milchstraße vorgelegt. Dunkle Materie existiert danach auch im Bereich unseres Sonnensystems und in unserer direkten „kosmischen Nachbarschaft“.

In einem ersten Schritt erstellten die Forscher die umfassendste Sammlung veröffentlichter Messungen der Bewegung von Gas und Sternen in der Milchstraße. Dann berechneten sie auf Basis aktuellster Forschungsergebnisse die Rotationsgeschwindigkeit, die die Milchstraße haben müsste, wenn sie nur aus sichtbarer Materie bestünde. Der Vergleich der gemessenen und der berechneten Geschwindigkeit zeigte eindeutig, dass hier die Dunkle Materie einen entscheidenden Beitrag leistet.

„Wir konnten mit unserer Arbeit belegen, dass sich das Gas und die Sterne in unserer Galaxie ohne den Beitrag von Dunkler Materie nicht mit den beobachteten Geschwindigkeiten drehen könnten“, sagt Dr. Miguel Pato, der die Analyse an der TU München durchführte. „Allerdings wissen wir immer noch nicht, aus was die Dunkle Materie besteht. Dies ist eine der wichtigsten Wissenschaftsfragen unserer Zeit“.

Auch für geringe Entfernung vom Zentrum der Milchstraße besitzen die Daten der Forschungsarbeit eine hohe Evidenz. Sie erschließen damit neue Wege zur Bestimmung der Verteilung Dunkler Materie in unserer Galaxie. Zukünftige astronomische Beobachtungen könnten damit die Verteilung der Dunklen Materie in unserer Galaxie mit bisher unerreichter Genauigkeit bestimmen.

„Damit können wir das Verständnis der Struktur und der Entwicklung unserer Galaxie wesentlich verbessern. Und es wird präzisere Vorhersagen für die vielen Experimente ermöglichen, die weltweit nach Teilchen der Dunklen Materie suchen“, sagt Miguel Pato, der inzwischen zum Oskar Klein-Zentrum für Astroteilchen-Physik an der Universität Stockholm gewechselt ist. (Quelle: idw)

Publikation:
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato, Gianfranco Bertone
Nature Physics, advanced online publication, 9 February 2015
DOI: 10.1038/nphys3237 – Link: https://nature.com/articles/doi:10.1038/nphys3237
Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Einzigartige Leistung: Radulfus fortschrittliche Handschriften (12. Jh.)

Moral und Ethik im 12. Jahrhundert? Viele Laien haben bei diesem Thema eher mittelalterlich-düstere Assoziationen. Aber falsch: Es gab seinerzeit durchaus Ideen, die auch aus heutiger Sicht ganz modern anmuten.

Am Ende des 12. Jahrhunderts schrieb der Theologe Radulfus Ardens sein Werk „Speculum universale“ (Universalspiegel). „Es handelt sich dabei um eine der ersten systematischen Gesamtdarstellungen von Moral und Ethik überhaupt und um die umfangreichste im 12. Jahrhundert“, sagt Professor Stephan Ernst von der  Universität Würzburg.

Obwohl das Werk bedeutsam ist, gibt es bislang keine gedruckte Ausgabe – es liegt nur in mittelalterlichen Handschriften vor, die auf mehrere Bibliotheken verteilt und dadurch ausschließlich für Spezialisten zugänglich sind. Professor Ernst will das ändern: An seinem Lehrstuhl wird das „Speculum“ seit 2005 textkritisch ediert: „Wir leisten damit einen Beitrag zu den Grundlagen, auf denen sich die Geschichte der theologischen und philosophischen Ethik des Mittelalters weiter erforschen lässt.“

Einzigartige Leistungen des Autors

Was ist das Besondere an diesem Werk? „Die systematische und differenzierte Weise, wie Radulfus Ardens die Tugenden und Laster aufgliedert und beschreibt, ist für die Zeit des 12. Jahrhunderts sicher einmalig“, so der Würzburger Professor. Einzigartig seien auch die durchgängigen Hinweise auf Komplementärtugenden. Damit sind Tugenden gemeint, die zu anderen Tugenden hinzukommen müssen, damit diese nicht in den Bereich des Lasters abgleiten.

Laut Radulfus muss sich etwa zur Sparsamkeit die Großzügigkeit gesellen, damit die Sparsamkeit nicht zum Geiz wird. Umgekehrt ist die Sparsamkeit für die Großzügigkeit wichtig, damit diese nicht zur Verschwendung wird. Gerechtigkeit bedarf als Ergänzung der Barmherzigkeit, damit sie nicht zu unmenschlicher Härte wird, und Barmherzigkeit bedarf der Gerechtigkeit, damit sie nicht zu ungerechter Laxheit führt. Tapferkeit bedarf der Ergänzung durch die Vorsicht, die Klugheit der Aufrichtigkeit usw. Auch solle der Mensch das richtige Maß zwischen Reden und Schweigen finden, um weder der Geschwätzigkeit noch der Stumpfheit anheimzufallen. Für mehr als 20 Tugenden führt Radulfus dieses Schema durch.

Aus heutiger Sicht ebenfalls überraschend: Radulfus vertrat die Ansicht, dass die moralische Bildung ein Produkt vieler äußerer Faktoren ist. Dazu zählte er unter anderem die Bedingungen, unter denen ein Mensch aufwächst, seine Anlagen und Begabungen, die Gegend, aus der jemand stammt, den Umgang, den man pflegt. „Diese Idee, dass auch die Anlagen sowie die natürliche und soziale Umwelt eine Persönlichkeit und ihr Handeln formen, war seinerzeit keineswegs selbstverständlich“, so Ernst. „Vielmehr wurde die Freiheit des Menschen oft einfach abstrakt und losgelöst von seiner Körperlichkeit, Geschichte und Gemeinschaftsbezogenheit betrachtet.“

Der Theologe Radulfus Ardens beschreibt in seinem Werk auch psychologische Mechanismen, etwa wie sich im Menschen – ausgehend von Gedanken und Wünschen – schließlich der Wille formiert. Er zeigt, dass das Böse und das Gute nicht einem völlig souveränen Willen entspringen, sondern dass der Mensch immer unter Einflüssen steht, die ihn in unterschiedliche Richtungen ziehen.

Stark am Nutzer orientiert

Unüblich war seinerzeit auch die starke Nutzerorientierung, die das Werk des Radulfus auszeichnet. „Es spricht einiges dafür, dass seine Schrift für die pastorale Ausbildung gemacht war. Auch hat sie ein deutliches didaktisches Anliegen“, sagt Ernst. Das merke man zum Beispiel daran, dass Radulfus dem Leser Gliederungsschemata an die Hand gibt, die man sich leicht merken kann. Das merke man aber auch an den vielen Schema-Zeichnungen (Gliederungs-„Bäume“), die im Unterricht offenbar manche Sachverhalte besser verdeutlichen sollten.

Das Werk des Radulfus ist in zehn Handschriften überliefert, die in Bibliotheken in Paris, Rom, Lissabon und Besançon aufbewahrt werden. Auf die Handschrift von Lissabon, die in früheren Arbeiten nicht berücksichtigt wurde, sind die Würzburger Wissenschaftler durch einen Hinweis in der Literatur aufmerksam geworden. Ein wahrer Glücksfall: Die Handschrift ist fast vollständig und gut lesbar. Sie ist damit oft eine Hilfe, wenn in den anderen Handschriften Unklarheiten über die richtige Lesart bestehen.

Unbekannter Radulfus

Der Vergleich der verschiedenen Versionen einer Handschrift ist ein aufwändiger Arbeitsschritt bei kritischen Editionsprojeken. Einiges an Zeit kosteten deshalb die genaue Beschreibung der vorhandenen Manuskripte sowie die Feststellung, wie die verschiedenen Handschriften voneinander abhängen. Aufwändig waren auch die Recherchen zur Person des Radulfus. Dabei konnten die Würzburger Wissenschaftler manche Angaben, die bisher als sicher galten und wie selbstverständlich übernommen wurden, aufgrund der Quellen relativieren: „Man weiß nicht viel über Radulfus; es gibt nicht einmal genaue Lebensdaten“, sagt Ernst.

Fest steht, dass Radulfus im 12. Jahrhundert in der Nähe von Poitiers (Frankreich) lebte und der Schule der Porretaner angehörte. Damit war er auch durch die fortschrittliche Schule von Chartres beeinflusst, die den Erkenntnissen der weltlichen Wissenschaften aufgeschlossen gegenüberstand. In dieser Schule wurden Texte antiker Philosophen offen rezipiert. Sie stellte zum Beispiel Platons Ideen zur Weltentstehung dem biblischen Schöpfungsbericht gegenüber, wobei sogar die Idee vertreten wurde, dass der Mensch das Produkt einer natürlichen Entwicklung sei – Gedanken zur Evolution also, noch viele Jahrhunderte vor Charles Darwin. Aber auch in der Ethik wurden Texte lateinischer Philosophen aufgegriffen und fruchtbar gemacht – oft unter dem Vorwand, daran Übungen in Grammatik durchzuführen. (Quelle: idw)

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Merken

Die Rätsel des Universums

München (ots) – Unser Wissen über das Universum ist enorm – doch viele Fragen sind noch unbeantwortet. Wie groß ist das Universum, woher kommen die Kometen und was hält die Galaxien zusammen – diesen und weiteren Rätseln des Universums geht das Weltraum-Magazin SPACE  nach.

Wie groß unser Universum ist – diese Frage ist nur teilweise gelöst. Seit dem Urknall konnte es sich “nur” 13,8 Milliarden Jahre lang ausdehnen. Das von weiter weg gelegenen Objekten abgestrahlte Licht hat uns einfach noch nicht erreicht. Das heißt also, das für uns von der Erde aus beobachtbare Universum ist eine kugelförmige Blase mit einem Radius von 13,8 Milliarden Lichtjahren. Wie weit es sich darüber hinaus ausdehnt, ist heiß umstritten.

Ebenfalls nur teilweise geklärt ist die Herkunft der Kometen. Ihren Ursprung erklären sich die Wissenschaftler mit Hilfe der sog. Oortschen Wolke, einer riesigen, das Sonnensystem in einer Entfernung von 20.000 Astronomischen Einheiten (1 AE entspricht etwa 149,6 Mio. km) umgebenden Wolke. Diese bildete sich wahrscheinlich, als die gerade entstandenen Planeten sonnennahe Kometen weiter “hinausbeförderten”. Und obwohl sie für uns (noch) nicht sichtbar ist, gilt diese Oortsche Wolke als Ursprung aller unserem Sonnensystem zugehörigen Kometen.

Ungelöst ist nach wie vor die Frage, was Galaxien zusammenhält. An die Gesetze der Physik halten sich manche von ihnen nicht, denn sie rotieren so schnell, dass die Gravitationswirkung ihrer sichtbaren Bestandteile nicht ausreicht, sie zusammenzuhalten. Sie müssten zerreißen, tun es aber nicht. Hier vermuten Wissenschaftler, dass eine mit modernen Instrumenten nicht messbare Materie für den Zusammenhalt der Galaxien verantwortlich sein muss – die sog. “Dunkle Materie”. Diese interagiert nicht mit der elektromagnetischen Wechselwirkung, das erschwert es, sie aufzuspüren. Die Lösung dieses Rätsels wäre eine der größten wissenschaftlichen Entdeckungen.

Buchtipp:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit

Rohstoffe aus dem Meer: Lösung zukünftiger Rohstoffprobleme?

Hamburg/Kiel (ots) – Der Hunger der Menschheit nach Rohstoffen hält unvermindert an. Der Ölverbrauch hat sich seit Anfang der 1970er Jahre verdoppelt, und auch die Nachfrage nach mineralischen Rohstoffen steigt mit dem zunehmenden Einsatz von Metallen wie Kupfer, Nickel oder Kobalt in elektronischen Produkten wie Smartphones, Solarzellen oder Hybridautos. Die Rohstoff- Vorkommen in den Tiefen der Ozeane rücken dabei immer mehr in den Fokus des Interesses. Doch wann ist ein Abbau wirtschaftlich? Welche Umweltrisiken müssen bedacht werden? Und wer darf die Lagerstätten in internationalen Gewässern für sich beanspruchen?

Der »World Ocean Review 3 – Rohstoffe aus dem Meer – Chancen und Risiken« (WOR 3) beschreibt ausführlich die bekannten metallischen und energetischen Rohstoffe in den Ozeanen und beleuchtet – wissenschaftlich fundiert und für Laien verständlich geschrieben – die Chancen und Risiken des Abbaus und der Nutzung von Rohstoffen. Der Report liefert Fakten über die Menge an bekannten Öl- und Gasvorkommen und der festen Gashydratvorkommen unterhalb des Meeresbodens. Ferner geht es um das Potenzial von mineralischen Rohstoffen wie Manganknollen, Kobaltkrusten und Massivsulfiden. Darüber hinaus thematisiert der WOR 3 die Verantwortung der internationalen Staatengemeinschaft für einen umweltverträglichen Abbau und die völkerrechtliche Herausforderung, für eine sozial gerechte Verteilung der Ressourcen in internationalen Gewässern zu sorgen.

»Die Nutzung des Ozeans wird in der Zukunft zunehmen. Für eine umweltverträgliche Ressourcengewinnung aus dem Meer und aus dem Küstenraum gilt es, dass alle Akteure gemeinsam an möglichst nachhaltigen Lösungswegen arbeiten«, sagt Martin Visbeck vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Sprecher des Kieler Exzellenzclusters »Ozean der Zukunft«.

Im Gegensatz zu schnell nachwachsenden Ressourcen wie etwa Fischen oder Muscheln entstehen mineralische und energetische Ressourcen aber nur im Laufe von vielen Millionen Jahren. Es gibt eine endliche Menge dieser Ressourcen, die nur mit hohem technischen Aufwand gefördert werden können.

Bereits mit der ersten maribus-Veröffentlichung, dem »World Ocean Review 1« (WOR 1), ist ein umfassender und einzigartiger Bericht gelungen, der den Zustand der Weltmeere und die Zusammenhänge zwischen dem Ozean und den ökologischen, ökonomischen und gesellschaftspolitischen Beziehungen aufzeigt. Bis heute wurden rund 70.000 Exemplare dieser Gesamtübersicht in deutscher und englischer Sprache weltweit nachgefragt. Die Publikation wird nicht verkauft, sondern gratis abgegeben. Eine Gewinnerzielungsabsicht gibt es nicht. Er ist zu beziehen über www.worldoceanreview.com.

Der Hunger der Menschheit nach Wissen und Erkenntnis hält genauso wie der Hunger nach Rohstoffen an. Dazu folgende Buchtipps:
Der Widerhall des Urknalls: Spuren einer allumfassenden transzendenten Realität jenseits von Raum und Zeit
Leben aus Quantenstaub: Elementare Information und reiner Zufall im Nichts als Bausteine einer 4-dimensionalen Quanten-Welt

Gen für das Gefühlsleben von Pflanzen entdeckt

Pflanzen zu drücken oder zu streicheln ist eine jahrhundertealte Methode im japanischen Landbau. Die mechanische Stressbehandlung erhöht die Widerstandsfähigkeit der Pflanzen und steigert damit auch den Ertrag, führt aber auch zu gedrungenem Wachstum und verzögertem Blühen. Verantwortlich dafür ist ein Gen, das nun von Dr. Maria Pimenta Lange und Prof. Theo Lange vom Institut für Pflanzenbiologie der Technischen Universität Braunschweig entdeckt wurde.

Die positive Auswirkung mechanischer Stressbehandlung von Pflanzen wurde erst vor wenigen Jahren in den westlichen Industrienationen bekannt. Bis dahin ging die Forschung davon aus, dass sich die sogenannte Thigmomorphogenese vor allem durch gedrungenes Wachstum und verzögertes Blühen auf Pflanzen auswirke, erläutert Prof. Theo Lange. Forschungsergebnisse aus den USA und der Schweiz wiesen in den vergangenen Jahren auch auf nützliche Effekte hin, wie etwa eine bessere Schädlingsabwehr, jedoch ohne den Wirkmechanismus aufzuklären, so der Braunschweiger Pflanzenbiologe.

Gemeinsam mit Dr. Maria Pimenta Lange ist es dem Leiter der Abteilung Biochemie und Physiologie der Pflanzen am Institut für Pflanzenbiologie der TU Braunschweig nun gelungen, das Gen zu identifizieren, das für die Berührungsreaktion von Pflanzen verantwortlich ist. Das Gen „AtGA2ox7“ kodiert ein Protein, das für den Abbau eines bestimmten Pflanzenhormons, den Gibberellinen, zuständig ist. Ohne dieses Gen, so die aktuellen Forschungsergebnisse der Braunschweiger Pflanzenbiologen, reagiere die Pflanze auf den Berührungsreiz nicht mehr mit morphologischen Veränderungen und wachse wie eine unbeeinflusste Vergleichspflanze.

In den kommenden Monaten setzt das Braunschweiger Forscherteam seine Arbeit fort und untersucht, inwieweit in genveränderten Pflanzen nach einer Berührung gewünschte Eigenschaften, wie gesteigerte Stressresistenz, erhalten geblieben sind. Auch soll untersucht werden, wie das identifizierte Gen als Marker beispielsweise in Züchtungsprogrammen eingesetzt werden kann. „Langfristig bietet unsere Grundlagenforschung die Möglichkeit, die jahrhundertealte japanische Methode als Anwendung im ökologischen Landbau weiterzuentwickeln und nachteilige Auswirkungen mit Mitteln der Biotechnologie zu lindern“, erklärt Prof. Lange. (Quelle: idw)

Zur Publikation
Maria João Pimenta Lange, Theo Lange: Touch-induced changes in Arabidopsis morphology dependent on gibberellin breakdown. Nature Plants, doi: 10.1038/nplants.2014.25 (2015).

Merken

Jahrtausende alte Keilschrift-Tontafeln endlich entziffert

Für die Altorientalistik kommt es einer Revolution gleich: Durch hoch aufgelöste 3D-Scans antiker Keilschrifttafeln und mit neu entwickelten Computerprogrammen erweitert sich der Forschungshorizont. Wissenschaftler aus Würzburg, Dortmund und Mainz treiben das einzigartige Projekt voran.

In den drei Jahrtausenden vor Christi Geburt war im Vorderen Orient eine Hochkultur entwickelt, die viele Informationen über sich hinterlassen hat: auf Tontafeln, beschrieben in Keilschrift. Bei dieser Art des Schreibens wurden keilförmige Buchstaben mit Schreibgriffeln in feuchte Tonplatten gedrückt, die schließlich getrocknet wurden – fertig war ein lange haltbares Schriftstück.

Bis heute hat man über 500.000 solche Tafeln entdeckt. Sie bieten spannende Einblicke in die Welt des Alten Orients. Die Texte schildern die Herstellung von Heilmitteln gegen Krankheiten, den Verlauf von Kriegen, religiöse Rituale oder bürokratische Akte. Auf einer sehr gut erhaltenen königlichen Landschenkungsurkunde zum Beispiel ist genau aufgeschrieben, wer an der Schenkung beteiligt war und welche Personen als Zeugen dabei waren.

Altorientalisten können die Keilschrift zwar lesen, doch die Entzifferung ganzer Texte ist bisweilen mühselig oder sogar unmöglich. Das liegt daran, dass die Jahrtausende alten Tontafeln meist in kleine Teile zerbrochen und über Museen in der ganzen Welt verstreut sind. „Wir stehen im Prinzip vor Tausenden von durcheinander geworfenen Puzzlespielen, die wir erst sortieren und zusammensetzen müssen, bevor wir sie lesen können“, sagt Gerfrid Müller, Professor am Lehrstuhl für Altorientalistik der Universität Würzburg.

Antike Puzzleteile mit High-Tech ordnen

Die Rekonstruktion antiker Tontafeln als Puzzlespiel: Diese Arbeit wird sich künftig viel leichter und zuverlässiger erledigen lassen – dank eines Forschungsprojekts, das seit zwei Jahren sehr erfolgreich läuft. Altertumswissenschaftler und Informatiker entwickeln dabei Methoden, mit denen sich Tontafelfragmente und die Schrift darauf mit hoher Präzision analysieren lassen. Gefördert wird das Projekt „3D-Joins und Schriftmetrologie“ vom Bundesministerium für Bildung und Forschung (BMBF).

„Revolutionär und weltweit einmalig“ sei das, was bisher erarbeitet wurde, sagt Projektleiter Müller: Zuerst erfassen die Wissenschaftler die Bruchstücke der Tontafeln mit hochauflösenden 3D-Scannern. Mit den Daten entwickeln Informatiker dann neue Methoden, um die Eigenheiten der Tafeln und der Schriften genau zu erfassen. Im letzten Schritt werden die Puzzleteile computergestützt aneinandergepasst: Am Bildschirm entstehen dann rekonstruierte 3D-Modelle von Tontafeln, an denen die Altorientalisten mit der Textarbeit beginnen können.

Schriftstile einzelner Schreiber im Blick

Ein Schwerpunkt des Projekts liegt auf der Analyse der Schriftstile. Geht das überhaupt? Schließlich kannte man im Alten Orient ja keine Handschrift wie im heutigen Sinne. Doch auch die antiken Schreiber zeigten einen jeweils ganz eigenen Stil, wenn sie mit ihren Griffeln die weiche Tonmasse bearbeiteten: Mancher zog den Griffel so schwungvoll aus dem Ton, dass dabei eine Art „Schnörkel“ entstand, ein anderer drückte die Buchstaben in jeweils ganz charakteristischen Abständen in die Tafel.

Solche Eigenheiten der Schreiber lassen sich an den hochaufgelösten 3D-Modellen genau analysieren. Mit dieser Methode können die Altorientalisten das Tontafel-Puzzle am Ende auch aufgrund von Schriftmerkmalen zusammenfügen. „Wir haben bereits festgestellt, dass eine bislang für korrekt gehaltene Tafelrekonstruktion nicht stimmen kann“, sagt Müller. Die bisherige Vorgehensweise beim Puzzeln – anhand von Gipsabgüssen, Fotografien und Textabschriften – war da einfach zu ungenau. Die neue Methodik ermöglicht jetzt ein einfacheres, schnelleres und zuverlässigeres Zusammensetzen der Tontafeln.

Tontafeln aus Hattuscha im Mittelpunkt

Für das Projekt haben sich die Forscher zunächst auf Keilschrifttexte aus der antiken Stadt Hattuscha in Ostanatolien konzentriert. Diese Texte werden seit 2001 von der UNESCO als Weltkulturerbe geführt; mit ihrer Aufarbeitung ist federführend die Forschungsstelle „Hethitische Forschungen“ der Akademie der Wissenschaften und der Literatur in Mainz befasst.

Unter den 30.000 Textfragmenten aus Hattuscha ist eine Gruppe von 6.000 bis 9.000 Fragmenten für die Wissenschaftler besonders interessant. Darauf sind Festrituale beschrieben, und die Kultanweisungen wiederholen sich sehr häufig – das heißt, die Puzzleteile sehen sich alle sehr ähnlich. Mit den herkömmlichen Mitteln sind diese Tafeln darum außerordentlich schwer zu rekonstruieren. Mit der neuen Technik sollte das relativ einfach gelingen.

Scans aus Ankara, Berlin und Istanbul

Bislang haben Müller und sein Mitarbeiter Michele Cammarosano 1.800 Tafelfragmente aus dem Fund von Hattuscha eingescannt. Dr. Cammarosano war dafür unter anderem in Museen in Ankara, Berlin und Istanbul tätig. Seine Scan-Arbeit geht weiter, und auch die beteiligten Informatiker tüfteln an neuen Algorithmen. Unter anderem wollen sie erreichen, dass sich auch die Krümmung der Tafelfragmente für die Zuordnung im Puzzle ausnutzen lässt.

Keilschrift-Datenbank für die Forschung

Als mittelfristiges Ziel des Projekts nennt Gerfrid Müller eine Keilschriftdatenbank, die übers Internet öffentlich und für andere Forschungsgruppen zugänglich gemacht werden soll. Das könnte voraussichtlich 2016 der Fall sein. Die Altorientalisten der Welt können ab dann noch besser daran arbeiten, aus den Keilschrifttexten mehr über den Alten Orient zu erfahren. (Quelle: idw)

Merken

Translate »