Schlagwort-Archive: Revolution

Jahrtausende alte Keilschrift-Tontafeln endlich entziffert

Für die Altorientalistik kommt es einer Revolution gleich: Durch hoch aufgelöste 3D-Scans antiker Keilschrifttafeln und mit neu entwickelten Computerprogrammen erweitert sich der Forschungshorizont. Wissenschaftler aus Würzburg, Dortmund und Mainz treiben das einzigartige Projekt voran.

In den drei Jahrtausenden vor Christi Geburt war im Vorderen Orient eine Hochkultur entwickelt, die viele Informationen über sich hinterlassen hat: auf Tontafeln, beschrieben in Keilschrift. Bei dieser Art des Schreibens wurden keilförmige Buchstaben mit Schreibgriffeln in feuchte Tonplatten gedrückt, die schließlich getrocknet wurden – fertig war ein lange haltbares Schriftstück.

Bis heute hat man über 500.000 solche Tafeln entdeckt. Sie bieten spannende Einblicke in die Welt des Alten Orients. Die Texte schildern die Herstellung von Heilmitteln gegen Krankheiten, den Verlauf von Kriegen, religiöse Rituale oder bürokratische Akte. Auf einer sehr gut erhaltenen königlichen Landschenkungsurkunde zum Beispiel ist genau aufgeschrieben, wer an der Schenkung beteiligt war und welche Personen als Zeugen dabei waren.

Altorientalisten können die Keilschrift zwar lesen, doch die Entzifferung ganzer Texte ist bisweilen mühselig oder sogar unmöglich. Das liegt daran, dass die Jahrtausende alten Tontafeln meist in kleine Teile zerbrochen und über Museen in der ganzen Welt verstreut sind. „Wir stehen im Prinzip vor Tausenden von durcheinander geworfenen Puzzlespielen, die wir erst sortieren und zusammensetzen müssen, bevor wir sie lesen können“, sagt Gerfrid Müller, Professor am Lehrstuhl für Altorientalistik der Universität Würzburg.

Antike Puzzleteile mit High-Tech ordnen

Die Rekonstruktion antiker Tontafeln als Puzzlespiel: Diese Arbeit wird sich künftig viel leichter und zuverlässiger erledigen lassen – dank eines Forschungsprojekts, das seit zwei Jahren sehr erfolgreich läuft. Altertumswissenschaftler und Informatiker entwickeln dabei Methoden, mit denen sich Tontafelfragmente und die Schrift darauf mit hoher Präzision analysieren lassen. Gefördert wird das Projekt „3D-Joins und Schriftmetrologie“ vom Bundesministerium für Bildung und Forschung (BMBF).

„Revolutionär und weltweit einmalig“ sei das, was bisher erarbeitet wurde, sagt Projektleiter Müller: Zuerst erfassen die Wissenschaftler die Bruchstücke der Tontafeln mit hochauflösenden 3D-Scannern. Mit den Daten entwickeln Informatiker dann neue Methoden, um die Eigenheiten der Tafeln und der Schriften genau zu erfassen. Im letzten Schritt werden die Puzzleteile computergestützt aneinandergepasst: Am Bildschirm entstehen dann rekonstruierte 3D-Modelle von Tontafeln, an denen die Altorientalisten mit der Textarbeit beginnen können.

Schriftstile einzelner Schreiber im Blick

Ein Schwerpunkt des Projekts liegt auf der Analyse der Schriftstile. Geht das überhaupt? Schließlich kannte man im Alten Orient ja keine Handschrift wie im heutigen Sinne. Doch auch die antiken Schreiber zeigten einen jeweils ganz eigenen Stil, wenn sie mit ihren Griffeln die weiche Tonmasse bearbeiteten: Mancher zog den Griffel so schwungvoll aus dem Ton, dass dabei eine Art „Schnörkel“ entstand, ein anderer drückte die Buchstaben in jeweils ganz charakteristischen Abständen in die Tafel.

Solche Eigenheiten der Schreiber lassen sich an den hochaufgelösten 3D-Modellen genau analysieren. Mit dieser Methode können die Altorientalisten das Tontafel-Puzzle am Ende auch aufgrund von Schriftmerkmalen zusammenfügen. „Wir haben bereits festgestellt, dass eine bislang für korrekt gehaltene Tafelrekonstruktion nicht stimmen kann“, sagt Müller. Die bisherige Vorgehensweise beim Puzzeln – anhand von Gipsabgüssen, Fotografien und Textabschriften – war da einfach zu ungenau. Die neue Methodik ermöglicht jetzt ein einfacheres, schnelleres und zuverlässigeres Zusammensetzen der Tontafeln.

Tontafeln aus Hattuscha im Mittelpunkt

Für das Projekt haben sich die Forscher zunächst auf Keilschrifttexte aus der antiken Stadt Hattuscha in Ostanatolien konzentriert. Diese Texte werden seit 2001 von der UNESCO als Weltkulturerbe geführt; mit ihrer Aufarbeitung ist federführend die Forschungsstelle „Hethitische Forschungen“ der Akademie der Wissenschaften und der Literatur in Mainz befasst.

Unter den 30.000 Textfragmenten aus Hattuscha ist eine Gruppe von 6.000 bis 9.000 Fragmenten für die Wissenschaftler besonders interessant. Darauf sind Festrituale beschrieben, und die Kultanweisungen wiederholen sich sehr häufig – das heißt, die Puzzleteile sehen sich alle sehr ähnlich. Mit den herkömmlichen Mitteln sind diese Tafeln darum außerordentlich schwer zu rekonstruieren. Mit der neuen Technik sollte das relativ einfach gelingen.

Scans aus Ankara, Berlin und Istanbul

Bislang haben Müller und sein Mitarbeiter Michele Cammarosano 1.800 Tafelfragmente aus dem Fund von Hattuscha eingescannt. Dr. Cammarosano war dafür unter anderem in Museen in Ankara, Berlin und Istanbul tätig. Seine Scan-Arbeit geht weiter, und auch die beteiligten Informatiker tüfteln an neuen Algorithmen. Unter anderem wollen sie erreichen, dass sich auch die Krümmung der Tafelfragmente für die Zuordnung im Puzzle ausnutzen lässt.

Keilschrift-Datenbank für die Forschung

Als mittelfristiges Ziel des Projekts nennt Gerfrid Müller eine Keilschriftdatenbank, die übers Internet öffentlich und für andere Forschungsgruppen zugänglich gemacht werden soll. Das könnte voraussichtlich 2016 der Fall sein. Die Altorientalisten der Welt können ab dann noch besser daran arbeiten, aus den Keilschrifttexten mehr über den Alten Orient zu erfahren. (Quelle: idw)

Merken

Sensationelle Neuentwicklung: MOBILE-Auto mit “Selbstbewusstsein”

Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)
Torben Stolte, wissenschaftlicher Mitarbeiter am Institut für Regelungstechnik, am Steuer des MOBILE-Forschungsfahrzeugs.Foto: TU Braunschweig (idw)

Optisch erinnert das neue Fahrzeug der Technischen Universität Braunschweig an ein Spielzeugauto in der Größe eines „erwachsenen“ Fahrzeugs. Statt der Karosserie findet sich hier nur ein Gitterrohrrahmen.  Fast 600 PS bringt das zwei Tonnen schwere Gefährt auf die Straße. Es ist eines der leistungsstärksten E-Fahrzeuge der Welt, und beschleunigt in drei bis vier Sekunden von null auf hundert. Entwickelt wurde das MOBILE-Auto von Prof. Markus Maurer und seinem Team am Niedersächsischen Forschungszentrum Fahrzeugtechnik der TU Braunschweig.

Auto mit „Selbst-Bewusstsein“

Bisherige Autos haben eine mechanische oder hydraulische Kopplung von Lenkrad und Bremse mit den Rädern.  Das Lenkrad von Autos der Zukunft bewegt dagegen eine Achse, die im Leeren endet. Ihre Bewegung wird von Sensoren aufgenommen und an die relevanten Komponenten übertragen. Ähnliches gilt auch für Gaspedal und Bremsen. Alle vier Räder sind mit einem jeweils eigenen Antrieb und einer Lenkeinheit versehen, die separat angesteuert werden können. Das Auto kann also jedes Rad unabhängig von den anderen bewegen, wodurch es sich praktisch auf der Stelle drehen und extrem leicht einparken lässt.

Aber ein MOBILE-Wagen muss noch mehr können. Tatsächlich muss es mehr über seine eigenen Fähigkeiten „wissen“ als seine Nutzer. Je nach Fahrsituation müssen die vorhandenen Antriebe zielgerichtet eingesetzt werden. Dabei trifft das Fahrzeug die Entscheidungen und nicht der Fahrer. Etwa dürfen bei schneller Fahrt die Hinterräder nur wenig und anders als bei langsamer Fahrt bewegt werden, da das gesamte Auto sonst ins Schleudern geraten könnte. Die Fahrzeugelektronik muss Position und Geschwindigkeit sowie das entstehende Risiko bei jeder Aktion einschätzen können und entsprechende Entscheidungen treffen.

Eine Revolution der Fahrzeugtechnik

Die „Macher“ von Leonie, des ersten Autos, das seit dem Jahr 2010 fahrerlos durch den Braunschweiger Straßenverkehr kurvt, haben sich mit dem MOBILE-Projekt ein neues Ziel gesteckt. „Leonie war damals aufsehenerregend, aber im Grunde die Weiterentwicklung konventioneller Fahrzeugtechnik – eine Evolution“, sagt Maurer. „MOBILE ist dagegen eine echte Revolution. Sie werden davon weltweit kein Zweites finden“. „Diesmal haben wir alles verworfen, was wir bisher über Autos wussten, und einfach von Anfang an ein ganz neues gebaut“, ergänzt Projektleiter Peter Bergmiller.

Die Frage, warum Ingenieure überhaupt so ein Auto bauen, beantwortet Markus Maurer. Man habe sich von den Forschungspartnern wie Chris Gerdes an der Universität Stanford inspirieren lassen: „Einfach, weil man daraus etwas lernen kann.“ Tatsächlich enthält das Fahrzeugkonzept grundlegende Elemente für die Autos der Zukunft. Kernstück der Forschung ist das vollkommen neue Sicherheitskonzept. Da die Autos immer autonomer fahren und aus immer mehr Elektronik bestehen, wird dies bald existenziell wichtig sein. Die Sicherheitskonzepte der autonomen Autos der Zukunft müssen von selbst funktionieren. Denn es wird keine Menschen geben, die im Zweifelsfall wieder übernehmen. „Wir haben das stärkste mögliche E-Fahrzeug gebaut. Denn wenn wir dies im Griff haben, können wir auch mit schwächeren Fahrzeugen umgehen“, erlärt Maurer.

Konventionelle Lösungen setzen dabei auf klassische Redundanz der Systeme: Für den Fall, dass in einem E-Fahrzeug während der Fahrt ein Lenkmotor ausfällt, gibt es beispielsweise einen zweiten Lenkantrieb, der die Aufgaben übernimmt. Das MOBILE-Projekt dagegen nutzt die Tatsache, dass insgesamt vier Antriebe und Lenkmotoren für die Räder vorhanden sind, und verbindet diese mit einem intelligenten Konzept. Fällt ein Antrieb aus, würde dadurch normalerweise ein Rad an beliebiger Stelle stehen bleiben. Indem die verbleibenden Antriebe sich die Aufgabe teilen, kann das Auto zumindest zur nächsten Werkstatt oder in die heimische Garage gefahren werden.

Während unser Forschungsfahrzeug Leonie Straße und Umgebung, Verkehrsregeln und -signale, sowie Verkehrsteilnehmer berechnen konnte, um autonom im Straßenverkehr zu agieren, zielt das MOBILE-Projekt auf Autonomie nach innen, erläutert Maurer. Es „verstehe“ das Zusammenspiel der elektronischen und mechanischen Komponenten, Kraft und Risiko sowie die im Umgang mit der komplexen Elektronik relativ eingeschränkten Möglichkeiten des Nutzers. (Quelle: idw)

Buchtipp:
Synthetisches Bewusstsein: Wie Bewusstsein funktioniert und Roboter damit ausgestattet werden können

Gehirn: Nachbau des menschlichen Denkorgans geplant

Heidelberg. Das Gehirn nachbauen! Das klingt wie der Gipfel wissenschaftlicher Vermessenheit. Gilt doch das menschliche Denkorgan gemeinhin als komplexeste Gebilde der Natur. “Spektrum der Wissenschaft” beschreibt in seiner September-Ausgabe die beiden vielversprechendsten Wege zu diesem Ziel.

Hier zeigen der Neurologe Henry Markram aus Lausanne und der Physiker Karlheinz Meier aus Heidelberg, wie sie Hirnstrukturen mittels Supercomputer simulieren oder den Nachbau des Gehirns mit konkreten elektronischen Schaltungen bewerkstelligen möchten. Beide Vorhaben der Kunsthirnforscher sind Teil der so genannten europäischen Flaggschiffprojekte, denen am Ende Milliarden Euro an Forschungsförderung winken könnten. Ein virtuelles Gehirn könnte in der medizinischen Forschung als Ersatz für das echte Organ dienen und so etwa neue Erkenntnisse über die Ursachen psychischer Störungen wie des Autismus liefern oder die risikolose Prüfung neuer Psychopharmaka “in silico” ermöglichen. Gehirn: Nachbau des menschlichen Denkorgans geplant weiterlesen

Erstmalig in Deutsch: Stevensons Roman »Prince Otto«.

Coverbild Intrigen am ThronDer Roman »Prince Otto« von Robert Louis Stevenson, der auch die bekannten Klassiker »Die Schatzinsel« und »Dr. Jekill und Mr. Hyde« schrieb, wurde jetzt zum ersten Mal ins Deutsche übersetzt und unter dem Titel »Intrigen am Thron« herausgegeben.

Was macht dieses Buch so außergewöhnlich?

Stevensons zweiter Roman, 1885 erschienen, ist im Gegensatz zur Schatzinsel nicht für die Jugend geschrieben, sondern für ein durchaus anspruchsvolles Publikum. Der Roman erzählt von jungen deutschen Adligen, dem leichtfertigen Prinzen Otto und seiner Frau, der ehrgeizigen Prinzessin Seraphina, die in ihren Rollen als Staatsoberhäupter des Fürstentums Grünewald dabei sind, sich gefühlsmäßig zu verwirren und auseinanderzuleben. Sie werden in ein Gespinst aus Hofintrigen, dem Ringen um Macht, Verrat und Hinterlist verwickelt.

Das politische Umfeld lässt sich unschwer als das der deutschen Revolution von 1848/1849 ausmachen. Es war eine Zeit des Umbruchs. Auch im Fürstentum Grünewald, das unter der eisernen Faust des Premierministers Gondremark stand, braute sich für den Adel das Unheil als Folge der bürgerlich-liberalen und revolutionären Strömungen zusammen.

Das Werk zieht den Leser in seinen Bann durch die unausgesprochenen Fragen, wie die beiden jungen Adligen mit dem drohenden Unheil fertig werden, welches Schicksal sie erleiden werden, und ob es ihnen gelingen wird, wieder zueinander zu finden.

Auch heute ist wieder so eine Zeit des Umbruchs, diesmal nicht in Deutschland oder Europa, sondern in der arabischen Welt. Genauso wie vor mehr als 150 Jahren geht es um die Ablösung undemokratischer Staatsoberhäupter durch demokratischere Strukturen und die Teilhabe der Bürger an der Macht. Und so erkennt man in Stevensons Werk ein zeitloses Muster der wiederkehrenden gleichen Konflikte und ihre möglichen Lösungen.

Die wunderschönen Formulierungen der alten Sprache sind erhalten geblieben und dank der neuen Übersetzung in eine für unsere Zeit angemessene Form gebracht worden. Hier nur eine kleine Textprobe aus einer Szene, in welcher Gondremark versucht, die Prinzessin zu manipulieren:

»Und dieses unglückliche Land, seiner Aufgabe verpflichtet, und dem Leben der Menschen und der Ehre der Frauen …«. Seine Stimme schien ihm zu versagen. Einen Augenblick später hatte er seinen Gefühlsausbruch überwunden und er fuhr fort. »Aber Sie, Madame, stellen sich würdiger Ihrer Verantwortung. In Gedanken bin ich bei Ihnen. Und angesichts der Schrecken, die ich kommen sehe, sage ich, und Ihr Herz wiederholt es – wir sind zu weit gegangen, um noch innezuhalten. Ehre, Pflicht, ja und die Sorge um unser eigenes Leben, verlangen, dass wir fortfahren …« (S. 82).

Die Kommentare zur englischen Ausgabe lesen sich in deutscher Übersetzung so:

  • Die Geschichte ist lebendig und wunderschön erzählt (Tom Nelson).
  • Eine Freude, sie zu lesen (Fraeden).
  • Ich würde daraus einen Film machen (Gordon A. FitzGerald).

Neben einer schönen Ausstattung mit Initialen am Kapitelbeginn, Ornamenten auf jeder Seite und drei Reproduktionen alter Gemälde im Text, besticht das Buch durch den zweispaltigen Textspiegel, der sich besonders leicht lesen lässt. So wird das Anfassen und Aufklappen dieses Buchs bereits zu einem sinnlichen Vergnügen und das Lesen zu einem geistigen Genuss.

Der vollständige Titel lautet:

Intrigen am Thron: Deutsche Ausgabe von “Prince Otto” – Roman über Intrigen, Ringen um Macht, Verrat, Hinterlist und wahre Liebe
Von Robert Louis Stevenson und Klaus-Dieter Sedlacek.
ISBN 978-3-8482-0065-8, Paperback, 168 Seiten.

Emergenz: Komplexität bestimmt die Welt

Video: Einführungsveranstaltung zur Ringvorlesung “Die Welt des Komplexen: Emergenz, Evolution und Kausalität” am 23.10.2007

FRANKFURT. Komplexität zieht sich als Leitmotiv durch nahezu alle heutigen Naturwissenschaften und gewinnt zunehmend an Bedeutung. Am Anfang der wissenschaftlichen Revolution der Neuzeit stand das Bestreben, das Naturgeschehen durch wenige und möglichst einfache Gesetzmäßigkeiten erfassen und verstehen zu können.

Dieses Programm im Sinne des Reduktionismus war von spektakulären Erfolgen gekrönt und hat die Welt entscheidend verändert. Die Suche nach fundamentalen Bausteinen und Gesetzmäßigkeiten hat auch heute nichts von ihrer Bedeutung verloren. Dennoch ist nicht zu übersehen, dass die real existierenden Objekte der Naturbeschreibung in der Regel alles andere als einfach sind. Nahezu überall stößt man auf komplexe Systeme, die sich aus miteinander wechselwirkenden Subeinheiten zusammensetzen und bei denen das Ganze mehr ist, als die Summe seiner Teile. Das Verständnis derartiger komplexer Systeme, charakterisiert durch Begriffe wie Strukturbildung, Selbstorganisation und Emergenz neuer Eigenschaften, gehört zu den zentralen Herausforderungen an die modernen Wissenschaften.

Die Biologie steht vor der Herausforderung, die Funktion und die Organisationsprinzipien der aus Evolutionsprozessen hervorgegangenen komplexen Systeme im lebenden Organismus aufzuklären. Dies gilt für die Funktion einzelner Biomoleküle oder Molekülkomplexe und für molekulare Netzwerke und Regelkreise innerhalb der Zelle (metabolische und Proteom-Genom-Netzwerke), für das Zusammenspiel von Zellen in Organen oder für das Immunsystem.

In den Neurowissenschaften steht das wohl komplexeste in der Natur existierende System im Zentrum der Untersuchungen, das Gehirn. Die Analyse des Aufbaus und der Funktionsprinzipien der riesigen, eng verflochtenen Netze von Neuronen im Gehirn, die letztlich für die kognitiven, mentalen und psychischen Prozesse bei Mensch und Tier verantwortlich sind, macht rapide Forschritte, wenn auch der Weg zu einem detaillierten Verständnis noch sehr weit ist.

In der Physik, die als erste der Naturwissenschaften den Weg zu einem quantitativen und theoretisch-mathematisch fundierten Verständnis beschritten hat, standen zunächst einfache, gut analysierbare Teilsysteme im Vordergrund. Spätestens mit der Entwicklung der nichtlinearen Dynamik und der Chaostheorie im 20. Jahrhundert wurde jedoch auch hier die Rolle der Komplexität klar. Das gilt für fast alle Vielteilchensysteme, ja selbst das Vakuum weist im Rahmen der Quantentheorie Züge großer Komplexität auf.

Die Rolle der Komplexität in der Chemie folgt schon aus ihrer Verankerung in der Physik, da chemische Moleküle Paradebeispiele für Vielteilchensysteme darstellen. Struktur, Funktion und Dynamik großer Makromoleküle sind im Grenzbereich zwischen Chemie, Physik und Biologie angesiedelte Fragestellungen. Von den supramolekularen chemischen Strukturen, die die Grundlage vieler Prozesse in der lebenden Zelle bilden, gibt es einen nahtlosen Übergang zum aktuellen Gebiet der atomaren Cluster und Nanostrukturen mit großem technischem Anwendungspotenzial. Quelle: idw
Mehr zum Thema:
Emergenz: Strukturen der Selbstorganisation in Natur und Technik

Dunkle Energie: Welches Schicksal erwartet unser Universum?

Geheimnisse des Universums: Dunkle Energie

Umstrittene Dunkle Energie

Gibt es eine Alternative, die beschleunigte Expansion des Weltalls zu erklären?
Das Universum scheint sich beschleunigt auszudehnen. Ursache dafür soll eine seltsame neue Energieform sein, Fachleute nennen sie die Dunkle Energie. Das Problem: Niemand weiß wirklich, was diese Dunkle Energie wirklich ist. Bisher suchen sie jedenfalls vergeblich nach Erklärungen für das rätselhafte Verhalten des Kosmos.

Kein Wunder, dass immer wieder alternative Modelle entwickelt werden, um vielleicht ohne exotischen Energieformen auszukommen. Wie zwei Kosmologen von der Oxford University im aktuellen August-Heft von “Spektrum der Wissenschaft” in der Titelgeschichte beschreiben, könnte ein solches Alternativmodell so aussehen: Falls wir kosmisch gesehen inmitten einer Region leben, in der weniger Sterne und andere Materie zu finden sind als anderswo, dann würde sich der astronomische Befund vom gleichmäßig beschleunigten Universum anders darstellen. Dann variiert nämlich die kosmische Expansionsrate mit dem Ort – und das würde den Astronomen eine kosmische Beschleunigung nur vorspiegeln, ohne es wirklich zu sein.

Könnte es also sein, dass wir im Universum nicht in einer gleich verteilten Ansammlung von Sternen und Galaxien leben, wie das kosmische Standardmodell annimmt? Eine riesige Leere um die Erde und ihr Milchstraßensystem herum kommt den meisten Kosmologen deshalb auch sehr unwahrscheinlich vor, doch einige Forscher ziehen sie der mysteriösen Dunklen Energie vor. Was spricht dafür? Was spricht dagegen?

Die Entdeckung des beschleunigten Universums kündigte sich vor vor elf Jahren an. Aus einer winzigen Abweichung in der Helligkeit explodierender Sterne folgerten die Astronomen, sie hätten keine Ahnung, woraus über 70 Prozent des Kosmos bestehen. Sie konnten nur feststellen, dass der Raum anscheinend von einer ganz unvergleichlichen Substanz erfüllt wird, welche die Expansion des Universums nicht bremst, sondern vorantreibt. Diese Substanz erhielt damals den Namen Dunkle Energie.

Inzwischen ist ein Jahrzehnt vergangen, und die Dunkle Energie gibt noch immer so viele Rätsel auf, dass einige Kosmologen die grundlegenden Postulate, aus denen ihre Existenz gefolgert wurde, in Zweifel ziehen. Eines dieser Postulate ist das kopernikanische Prinzip. Ihm zufolge nimmt die Erde keinen zentralen oder sonst wie ausgezeichneten Platz im All ein. Wenn wir dieses Grundprinzip preisgeben, bietet sich eine überraschend einfache Erklärung für die neuen Beobachtungen an.

Wir haben uns längst an die Idee gewöhnt, dass unser Planet nur ein winziger Fleck ist, der irgendwo am Rand einer durchschnittlichen Galaxie einen typischen Stern umkreist. Nichts scheint unseren Ort inmitten von Milliarden Galaxien, die sich bis an unseren kosmischen Horizont erstrecken, besonders auszuzeichnen. Doch woher nehmen wir diese Bescheidenheit? Und wie könnten wir herausfinden, ob wir nicht doch einen speziellen Platz einnehmen? Meist drücken sich die Astronomen um diese Fragen und nehmen an, unsere Durchschnittlichkeit sei offensichtlich genug. Die Idee, wir könnten tatsächlich einen besonderen Ort im Universum bewohnen, ist für viele undenkbar. Dennoch ziehen einige Physiker dies seit Kurzem in Betracht.

Zugegeben: Die Annahme, wir seien kosmologisch unbedeutend, erklärt viel. Mit ihrer Hilfe können wir von unserer kosmischen Nachbarschaft auf das Universum im Großen und Ganzen schließen. Alle gängigen Modelle des Universums beruhen auf dem kosmologischen Prinzip. Die beschleunigte Expansion war also die große Überraschung, mit der die aktuelle Revolution in der Kosmologie begann.

Angenommen, die Expansion verlangsamt sich überall, weil die Materie an der Raumzeit zieht und sie bremst. Nehmen wir ferner an, dass wir in einer gigantischen kosmischen Leere leben – in einem Gebiet, das zwar nicht völlig leer gefegt ist, wo aber die mittlere Materiedichte nur etwa halb so groß ist wie anderswo. Je leerer eine Raumregion ist, desto weniger Materie bremst dort die räumliche Expansion, und entsprechend höher ist die Expansionsgeschwindigkeit innerhalb des Leerraums. Am höchsten ist sie in der Mitte; zum Rand hin, wo sich die höhere Dichte des Außenraums bemerkbar macht, nimmt sie ab. Zu jedem Zeitpunkt expandieren verschiedene Raumpartien unterschiedlich schnell – wie der ungleichmäßig aufgeblasene Luftballon.

Wie ausgefallen ist diese Idee einer monströsen Abnormität? Auf den ersten Blick sehr. Sie scheint in eklatantem Widerspruch zur kosmischen Hintergrundstrahlung zu stehen, die bis auf Hunderttausendstel genau gleichförmig ist, ganz zu schweigen von der im Großen und Ganzen ebenmäßigen Verteilung der Galaxien. Doch bei näherer Betrachtung muten diese Indizien weniger zwingend an. Die Gleichförmigkeit der Reststrahlung erfordert nur, dass das Universum in jeder Richtung nahezu gleich aussieht. Wenn eine Leere ungefähr kugelförmig ist und wir einigermaßen nahe ihrem Zentrum sitzen, muss sie nicht unbedingt den Beobachtungen widersprechen.

In kommenden Jahren werden Himmelsbeobachtungen zwischen beiden Erklärungen entscheiden.
Quelle: Spektrum der Wissenschaft, August 2009

Die Entdeckung des Zufalls

Als Max Planck vor 100 Jahren mit einem Vortrag vor der Deutschen Physikalischen Gesellschaft in Berlin den Grundstein zur Quantentheorie legte, brachte er damit eine tiefgreifende Umwälzung des physikalischen Weltbilds in Gang. Hatten die Wissenschaftler bis dahin geglaubt, die Natur gleiche einem überdimensionalen Uhrwerk mit vorhersehbaren Abläufen, so wurden sie im Zuge der quantenmechanischen Revolution mit der Entdeckung des Zufalls konfrontiert.
Die Erkenntnis, dass es zum Beispiel für den Zeitpunkt des Zerfalls eines radioaktiven Atoms keinerlei Ursache gibt, war für die Physiker zu Beginn des 20. Jahrhunderts keineswegs erfreulich. Die sogenannte deterministische, klassische Physik hatte es ihnen ermöglicht, die Natur zu verstehen und Ereignisse wie Springfluten oder Mondfinsternisse vorherzusagen. Das gab ihnen über viele Jahrhunderte ein Gefühl von Sicherheit und Macht. Das Ende des Determinismus, der Vorhersagbarkeit, war daher nur schwer zu akzeptieren.
Dabei hatten statistische Theorien, die lediglich Aussagen über die Wahrscheinlichkeit eines Ereignisses machen, die Physiker in früheren Zeiten nicht beunruhigt. Man wusste, hochkomplexe Systeme wie Gase ließen sich nur über statistische Aussagen in den Griff bekommen. Denn es ist einfach unmöglich, die Orte und Geschwindigkeiten aller Teilchen eines Gases zu kennen. Würde aber ein „Superhirn” existieren, das über sämtliche nach dem Urknall entstandenen Teilchen Bescheid wüsste, dann müsste es den Lauf der Welt vorausberechnen können – so die damalige Meinung. Nun stellte sich heraus, dass dem Zufall in der Quantentheorie mit dieser Art von Allwissenheit nicht beizukommen war. Die sogenannte Unbestimmtheitsrelation machte es grundsätzlich unmöglich, Ort und Geschwindigkeit eines Gasatoms zur gleichen Zeit exakt zu messen.
Die Quantentheorie brachte aber nicht nur den Zufall ins Spiel. Es stellte sich heraus, dass quantenmechanische Dinge ein merkwürdig schemenhaftes Dasein führen, das erst durch eine Messung, also den Eingriff eines Beobachters, in einen eindeutigen Zustand überführt wird. Der Zustand eines Elektrons ist ohne eine Messung, die uns diesen Zustand offenbart, nicht nur nicht bekannt, sondern einfach nicht definiert. Hieraus ergab sich die Notwendigkeit, über erkenntnistheoretische Fragen nachzudenken. Denn nachdem sicher war, dass es keine vom Beobachter losgelöste Realität gibt, stellte sich die zentrale Frage, was wir dann überhaupt über die Natur wissen können. Was treibt ein Elektron, wenn ihm keiner zusieht? Auf diese Frage gibt es schlichtweg keine Antwort.
Die Quantenmechanik ist die am besten überprüfte und bestätigte Theorie überhaupt. Gleichzeitig sind ihre möglichen Konsequenzen wie Zeitreisen, „geisterhafte Fernwirkungen” oder die Quanten- Teleportation mit unserem an der Alltagswelt geschulten Verstand kaum zu erfassen. Die Quantentheorie bildet die Grundlage der gesamten modernen Physik, denn erst durch sie wurde ein tieferes Verständnis der Materie möglich. Mit ihrer Hilfe können wir beispielsweise erklären, warum Atome stabil sind, wie ein Laser funktioniert und warum Metalle den Strom besser leiten als die meisten Kunststoffe. Und nicht nur für die Elektronik, Optik oder Nanotechnologie ist die Quantenphysik entscheidend – auch die Vorgänge in der Chemie und Molekularbiologie sind letztlich auf Quanteneffekte zurückzuführen. „Bei der Interpretation der Quantentheorie mag es Schwierigkeiten geben”, schreibt der britische Elementarteilchenphysiker Robert Gilmore, „aber sie funktioniert zweifellos aufs beste.”
(Quelle: Themenheft »Entdeckung des Zufalls«, BMBF, Dezember 2000)

Buchtipp:
Unsterbliches Bewusstsein: Raumzeit-Phänomene, Beweise und Visionen