Neutrinos sind der Schlüssel um das Universum zu verstehen

Takaaki Kajita ist zum ersten Mal Gast bei der Nobelpreisträgertagung in Lindau. Er hat seinen Preis erst im letzten Jahr bekommen; gemeinsam mit Arthur McDonald “für die Entdeckung von Neutrinooszillationen, die zeigen, dass Neutrinos eine Masse haben”. Es war schon der vierte Physik-Nobelpreis der für Forschung über Neutrinos vergeben wurde und es wird mit Sicherheit nicht der letzte sein. Seit Wolfgang Pauli im Jahr 1930 die Existenz dieser Elementarteilchen postuliert hat, stellen sie die Physiker vor ein Rätsel nach dem anderem.

Es war schon ein Rätsel, das uns überhaupt erst auf ihre Spur gebracht hat: Der radioaktive Zerfall mancher Elemente verlief nicht so, wie er eigentlich verlaufen sollte: Es schien dabei der Energieerhaltungssatz verletzt zu werden. Pauli stellte fest, dass man das Problem lösen könnte, wenn es ein noch unentdecktes Elementarteilchen gibt.

Nachweis von Neutrinos in einer Nebelkammer (Bild: Argonne National Laboratory, public domain)

Nachweis von Neutrinos in einer Nebelkammer (Bild: Argonne National Laboratory, public domain)

1956 wurde das Teilchen, das mittlerweile den Namen “Neutrino” bekommen hatte dann tatsächlich experimentell nachgewiesen und sein Entdecker Frederick Reines mit dem Nobelpreis für Physik ausgezeichnet.

1962 überraschte das Neutrino die Physiker ein weiteres Mal. Jack Steinberger, Melvin Schwartz und Leon Max Lederman entdeckten, das es mehr als nur eine Art von Neutrino gibt. Bei Versuchen an Teilchenbeschleunigern entdeckten sie eine neue Variante dieses Teilchens das als “Myon-Neutrino” bezeichnet wurde. Für diese Leistung wurden sie ebenfalls mit dem Nobelpreis ausgezeichnet.

Die Neutrinos beschäftigten die Wissenschaftler auch in den nächsten Jahrzehnten. Im Gegensatz zu den restlichen bekannten Elementarteilchen ignorieren die Neutrinos die elektromagnetische Kraft genau so wie starke Kernkraft. Nur in äußerst seltenen Fällen kommt es daher zu einer Wechselwirkung zwischen Neutrinos und der “normalen” Materie. Man kann schwer anschaulich nachvollziehen, wie substanzlos die für uns alltägliche Welt aus Sicht eines Neutrinos aussieht. Würde man zum Beispiel einen Strahl aus Neutrinos auf eine Bleiwand schießen die ein Lichtjahr dick ist, würde trotzdem nur die Hälfte davon aufgehalten werden. Der Rest würde einfach glatt durch das Hindernis durchfliegen, so als ob es nicht vorhanden wäre. Der Nachweis und die Untersuchung solch flüchtiger Teilchen ist daher nachvollziehbarerweise nicht einfach. Aber nicht unmöglich.

Raymond Davies baute in den 1960er Jahren in einer Goldmine in South Dakota einen fast 400.000 Liter fassenden Tank auf. Er füllte ihn mit Perchlorethylen, einer Verbindung von Chlor und Kohlenstoff die unter anderem in chemischen Reinigungen weit verbreitet ist. Dann wartete er, 1400 Meter unter dem Erdboden. Darauf, dass vielleicht doch das eine oder andere Neutrino mit den Molekülen in seinem Tank in Wechselwirkung trat und dabei ganz bestimmte nukleare Reaktionen auslösen würde. Reaktionen, deren Auswirkung sich beobachten lassen und somit einen Nachweis der Neutrinos ermöglichen würden.

Im Gegensatz zu Reines, Steinberger, Schwarz und Lederman war Davies aber nicht an Neutrinos aus Beschleunigern und anderen künstlichen Quellen interessiert. Er wollte Neutrinos messen, die aus dem All auf die Erde kommen; Neutrinos die bei Kernreaktionen im Inneren der Sonne entstehen. Gelänge das, würde sich der Wissenschaft eine völlig neuer Informationskanal eröffnen. In den Kern der Sonne, wo die Neutrinos entstehen kann kein Teleskop blicken. Nur theoretische Modelle können uns Aufschluss darüber geben, was dort passiert. Und die Neutrinos, wenn sie sich beobachten lassen würden. Nach langen und mühsamen Messungen gelang Davies genau dieser Nachweis in den 1970er Jahren und auch er erhielt dafür den Nobelpreis.

Zu dieser Zeit begann Takaaki Kajita sein Studium an der Universität Saitama in Japan. Nach seinem Abschluss war er Teil des Forschungsteams das am Kamiokande-Detektor arbeitete. Dort war man auf der Suche nach zerfallenden Protonen: Die damals entwickelten Theorien zur Vereinheitlichung der physikalischen Grundkräfte sagten voraus, dass diese Bausteine der Atomkerne nicht stabil sind, sondern während sehr langer Zeiträume zerfallen können. Der Nachweis des Protonenzerfalls gelang den Forschern mit Kamiokande nicht – aber die Anlage eignete sich auch zur Beobachtung von Neutrinos und hier entdeckte Kajita ein weiteres Rätsel.

Man konnte sowohl Myon-Neutrinos als auch Elektron-Neutrinos (die ursprünglich von Pauli postulierte Art) nachweisen. Während bei den Elektron-Neutrinos die aus der Theorie vorhergesagte Anzahl mit der tatsächlich beobachteten Menge übereinstimmte, hielten sich die Myon-Neutrinos nicht an die Vorgaben der Theoretiker. Egal was man anstellte, es waren immer deutlich weniger von ihnen im Detektor sichtbar als sichtbar sein sollten. Kajita und seine Kollegen gingen davon aus, irgendwo einen Fehler gemacht zu haben. Aber so sehr sie auch suchten, sie fanden nichts, was an ihrem Versuchsaufbau falsch sein könnte. Der “Fehler” ließ sich nicht erklären und schließlich publizierten sie ihren Befund im Jahr 1988. Drei Jahre später konnte eine andere Anlage unabhängig von Kamiokande das Resultat reproduzieren: Es gab weniger Myon-Neutrinos als es geben müsste. Der “Fehler” war kein Fehler, sondern ein neues physikalisches Phänomen das einer Erklärung bedurfte

Ein möglicher Ansatz hat mit der Masse zu tun. Nach damaliger Auffassung hatten Neutrinos keine Ruhemasse; das besagt auch das Standardmodell der Teilchenphysik. Wenn sie aber doch eine, wenn auch nur sehr kleine Masse haben, dann könnten sie “oszillieren”: Elektron- und Myon-Neutrinos könnten sich ineinander umwandeln und so die unerwartete Mengenverteilung erzeugen. Kajita und seine Kollegen machten sich daran, diese Hypothese experimentell zu untersuchen was ihnen – und unabhängig davon auch dem Kanadier Arthur McDonald – ein paar Jahre später gelang. Für diese Leistung erhielten Kajita und McDonald den Physik-Nobelpreis des Jahres 2015.

 

Takaaki Kajita während seines Vortrags bei #LiNo16. Foto: Ch. Flemming/Lindau Nobel Laureate Meetings

Takaaki Kajita während seines Vortrags bei #LiNo16. Foto: Ch. Flemming/Lindau Nobel Laureate Meetings

Der Nachweis der Neutrinooszillation hat eine wichtige offene Fragen der Teilchenphysik beantwortet. Aber mehrere, noch viel wichtigere neue Fragen aufgeworfen. Dank der Arbeit von Kajita und McDonald wissen wir nun, dass Neutrinos eine Masse haben müssen. Das – ansonsten extrem erfolgreiche – Standardmodell der Teilchenphysik besagt aber weiterhin, dass sie masselos sein müssen. Der Physik-Nobelpreis des Jahres 2015 ist also nicht nur die Würdigung einer großen wissenschaftlichen Leistung. Sondern auch eine Erinnerung an den Rest der Wissenschaftler, dass noch viel Arbeit auf sie wartet. Das Standardmodell hat sich in den letzten Jahrzehnten mehr als nur bewährt. Kaum eine physikalische Theorie liefert eine so gute Übereinstimmung zwischen Theorie und Experiment. Das letzte vom Standardmodell vorhergesagte Teilchen, das Higgs-Boson wurde 2012 entdeckt. Jetzt ist es “komplett”; die Arbeit aber längst nicht abgeschlossen.

Es braucht ein neues Modell das über das Standardmodell hinaus geht. Kajita und McDonalds Nachweis der Neutrinooszillationen demonstriert das mehr als deutlich: Neutrinos haben eine Masse und wir brauchen eine Theorie die in der Lage ist, das zu beschreiben. So ein neues Modell kann dann hoffentlich auch viele der anderen ungeklärten Phänomene beschreiben. Die Natur der dunklen Materie, die Beschreibung der Quantengravitation, die Ursache der beschleunigten Expansion des Universums, und so weiter: Es mangelt in der Physik nicht an offenen Fragen und die Neutrinos scheinen ein vielversprechender Ansatzpunkt zu ihrer Beantwortung zu sein.

Sie werden überall im Kosmos erzeugt und können sich fast ungehindert durch das gesamte Universum bewegen. Dort, wo normale Materie und elektromagnetische Strahlung aufgehalten werden, bietet die Beobachtung von Neutrinos eine völlig neue Informationsquelle. Zumindest dann, wenn wir verstehen könnten, wie diese kleinen und flüchtigen Teilchen funktionieren. Takaaki Kajita beendet seinen Vortrag in Lindau mit einem optimistischen Ausblick:

Neutrinos sind der Schlüssel, die Natur der kleinsten und größten Skalen im Universum zu verstehen.

Einen Schritt in Richtung dieses Verständnis hat er mit seiner Arbeit selbst schon getan. Viele weitere Schritte werden folgen. Früher oder später werden andere Wissenschaftlerinnen und Wissenschaftler den Weg weitergehen, den Kajita aufgezeigt hat. Und dann mit Sicherheit für ihre Erkenntnisse ebenfalls mit dem Nobelpreis ausgezeichnet werden.

Leuchten blaue LEDs den Weg in die Zukunft?

Ich bin kein Physiker.

Mit diesem Satz eröffnete Hiroshi Amano seinen Vortrag; den ersten bei der 66. Lindauer Nobelpreisträgertagung. So wie die anderen Laureaten, die in diesem Jahr am Bodensee zu Gast sind, hat auch Amano seinen Preis für Leistungen auf dem Gebiet der Physik bekommen. Aber, wie er im Laufe seines Vortrags erläutert, sieht er selbst sich mehr als Ingenieur denn als Physiker. Als einen Ingenieur mit großen Ambitionen: “Wenn ich blaue LEDs bauen könnte, würde ich die Welt verändern”, erklärt Amano die Motivation für seine Forschung. Leuchtdioden (LEDs) wurden schon seit den 1960er Jahren hergestellt. Allerdings nur in den Farben rot, gelb und grün. Blaue LEDs gab es noch nicht; ein Mangel, den Amano beheben wollte. Während seiner Studienzeit interessierte er sich für PCs und wollte zu deren Weiterentwicklung beitragen. Die damaligen Röhrenbildschirme waren groß und verbrauchten viel Energie. Wenn es aber gelang, auch blau leuchtende Dioden zu entwickeln, könnte man das ändern und kleinere Displays bauen. Amano konzentrierte sich als Student auf das Halbleitermaterial Galliumnitrit, von dem bekannt war, dass es theoretisch zur Konstruktion blauer LEDs geeignet war. Wie eine praktische Umsetzung aussehen sollte, wusste aber niemand.

 

Für einen jungen Studenten war das eine nicht unangenehme Situation: Amano wusste nicht weniger als seine Professoren und konnte ohne hierarchisches Gefälle frei diskutieren und experimentieren. Vorerst aber ohne Erfolg und auch der Rest der wissenschaftlichen Gemeinschaft hatte sich bald vom Galliumnitrit ab- und dem (zumindest damals) vielversprechenderen Material Zinkselenid zugewandt. Amano erläutert in seinem Vortrag die Wahl vor der er stand. Er konnte sich der Mehrheit anschließen, in einem aktiven Forschungsumfeld arbeiten und so nicht nur leichter Fachartikel veröffentlichen sondern auch seine Chancen auf eine Anstellung an einer Universität erhöhen. Oder aber Teil der Minderheit bleiben, die weiter am Galliumnitrit forscht; ohne großen Rückhalt in der wissenschaftlichen Community und große Chancen auf eine akademische Zukunft. Amano entschied sich gegen den Mainstream und – zumindest im Nachhinein betrachtet – war das die bessere Wahl. Gemeinsam mit Isamu Akasaki gelang es ihm, Ende der 1980er Jahren Kristalle aus Galliumnitrit herzustellen, deren optische Eigenschaft gut genug waren um blaue Leuchtdioden zu entwickeln. Für diese Leistung wurden beide (und zusätzlich auch Shuji Nakamura, der unabhängig vergleichbare Resultate erbrachte) 2014 mit dem Nobelpreis für Physik ausgezeichnet.

 

Hiroshi Amano bei #LiNo16. Foto: J. Nimke/Lindau Nobel Laureate Meetingds

Hiroshi Amano bei #LiNo16. Foto: J. Nimke/Lindau Nobel Laureate Meetings

Eine blau leuchtende Diode erscheint auf den ersten Blick nicht so beeindruckend wie andere nobelpreisgekrönte Entdeckungen beispielsweise über den fundamentalen Aufbau der Materie oder die Struktur des Universums. Aber Amano hat mit seinen Kollegen das getan, was er sich als junger Student vorgenommen hatte: Er hat die Welt verändert. Blaue LEDs dienen schon längst nicht mehr nur als Display für Computer und andere elektronische Geräte. Zusammen mit den andersfarbigen LEDs ist es mit ihnen möglich, auch weißes Licht zu erzeugen. Und das auf eine viel effektivere und energiesparendere Weise als mit den konventionellen Leuchtmitteln. Ohne die blauen LEDs in ihren Bildschirmen hätten sich Smartphones und Tablets nie so verbreiten können, wie sie es getan haben und was das angeht, haben Amano und seine Kollegen die moderne Welt schon deutlich geprägt. Aber der Einsatz der blauen Leuchtdioden geht mittlerweile weit über den Einsatz von Displays hinaus. Amano erklärt, dass es mit den LED-Leuchtmitteln der globale Energieverbrauch gesenkt werden könnte. Ihr Einsatz könnte Kernkraftwerke überflüssig machen und den Verbrauch fossiler Brennstoffe deutlich reduzieren. “Lighting the Earth by LEDs” ist der Titel von Amanos Vortrag und genau darauf sieht er die zukünftige Forschung und Entwicklung abzielen: Dank LEDs soll es auch überall dort billige und effiziente Beleuchtung geben, wo die Welt heute noch dunkel ist. Eine große Vision, die nicht nur kurz vor der Verwirklichung steht sondern von vielen auch kritisch gesehen wird. Die gleichen Satellitenbilder der nächtlichen Erde die in Amanos Vortrag demonstrieren wo LEDs zum Einsatz kommen können, sind für andere eine Warnung vor der immer stärkeren Lichtverschmutzung auf unserem Planeten. Erst vor wenigen Wochen hat ein internationales Team von Wissenschaftlern eine Studie zur künstlichen Aufhellung der Nacht veröffentlicht (Fabio Falchi et al, “The new world atlas of artificial night sky brightness”, Science Advances 10 Juni 2016). Sie haben Bilder des NASA-Satelliten Suomi NPP ausgewertet und gemessen, wie viel Licht aus den großen Städten in Richtung Himmel gestrahlt wird. Ihr Fazit: Circa 80 Prozent der Weltbevölkerung sehen keinen natürlich dunklen Himmel mehr. In Europa ist der Himmel für 60 Prozent der Bevölkerung schon so sehr aufgehellt, dass dort keinerlei Chance besteht die Milchstraße mit freiem Auge zu sehen.

 

Das Verblassen des Sternenhimmels ist mit Sicherheit ein kultureller Verlust für die Menschheit. Die Lichtverschmutzung ist aber schon längst nicht mehr nur ein Problem für Sterngucker und professionelle Astronomen, denen ja zumindest immer noch der Ausweg auf hohe Berge und in abgelegene Wüsten offen steht, wo der Himmel immer noch dunkel ist. Von den immer helleren Nächten sind auch Tiere und Pflanzen betroffen, die einen regelmäßigen und deutlichen Wechsel von hellem Tag zu dunkler Nacht für ihr Wachstum und ihre Entwicklung brauchen. Medizinische Studien zeigen auch Hinweise, dass der menschliche Organismus durch die immer stärkere Lichtverschmutzung betroffen ist und das Risiko für Erkrankungen sich in Regionen mit viel Kunstlicht erhöht. Künstliches Licht ist ein integraler Bestandteil unserer modernen Zivilisation und es ist nicht sinnvoll sich die dunkle Welt der Vergangenheit zurück zu wünschen. Aber es spricht nichts dagegen, die Nächte vernünftig und geplant zu beleuchten. Gerade dank der LEDs lassen sich moderne Beleuchtungskonzepte viel einfacher umsetzen so dass am Ende tatsächlich nur das beleuchtet wird was auch beleuchtet werden soll und der Rest dunkel bleibt. Die billigen und effizienten LEDs führen uns aber auch erst Recht in Versuchung, sie wahl- und ziellos einzusetzen. Am Ende bleibt das Dilemma, das jede neue Entwicklung nach sich zieht: Sobald die alten Probleme gelöst worden sind, tauchen unerwartete neue Aspekte auf mit denen man nicht gerechnet hat. Der Weg kann aber immer nur vorwärts führen. Das sieht auch Hiroshi Amano so und beendet seinen Vortrag mit einem Appell an die anwesenden jungen Wissenschaftlerinnen und Wissenschaftler:

I believe engineering can solve global issues

Und globale Probleme, so Amano, gäbe es heute ja genug. Und damit auch genug Arbeit für die nächste Generation der Forscher.

Jenseits des Standardmodells: Sterile Neutrinos und Dunkle Materie

Dass ich erkenne, was die Welt im Innersten zusammenhält.

Von diesem Wunsch getrieben hätte Goethes Faust sicher Gefallen am heutigen Standardmodell der Teilchenphysik gefunden: Es beschreibt die fundamentalen Bausteine der uns umgebenden Materie und auch ihre grundlegenden Wechselwirkungen untereinander. So hilft es uns zu verstehen, wie sich aus den Grundbausteinen immer komplexer werdende Strukturen ergeben -von Nukleonen, Atomkern und -hülle bis hin zu hochkomplizierten Molekülen.

In seiner Vorhersagekraft ist das Standardmodell der Teilchenphysik herausragend: Ein ganzes Kaleidoskop von fundamentalen Teilchen wurde in der Entwicklung des Standardmodells vorhergesagt und später experimentell bestätigt. Den vorläufigen Abschluss fand diese Suche im Jahre 2012, als am Large Hadron Collider (LHC) der lang ersehnte, letzte fehlende Baustein des Standardmodells gefunden wurde – das Higgs-Boson. Für dessen Vorhersage vor etwa 50 Jahren wurde Peter Higgs und François Englert der Nobelpreis für Physik 2013 verliehen.

Aber nicht nur qualitativ, sondern auch quantitativ ist das Standardmodell beeindruckend: In der sogenannten Quantenelektrodynamik, einem Teilgebiet des Standardmodells, können bestimmte im Labor sehr genau messbare Eigenschaften von Teilchen mit einer relativen Genauigkeit von 10-9 erklärt werden, also einer Abweichung von 1:1.000.000.000!

Auch wenn das Standardmodell eine sehr erfolgreiche Theorie ist, so wissen wir – ganz wie Doktor Faust – dass unser Wissen unvollständig ist: Die Suche nach den innersten Bausteinen und Kräften unseres Kosmos ist noch nicht beendet. Denn inzwischen haben wir eine lange Liste an Beobachtungen, die im Standardmodell nicht erklärbar sind. Es kann also nur eine effektive Teilbeschreibung eines umfassenderen Modells sein.

 

François Englert 2015 in Lindau. Foto: R. Schultes/Lindau Nobel Laureate Meetings

François Englert 2015 in Lindau. Foto: R. Schultes/Lindau Nobel Laureate Meetings

 

 Dunkle Materie und unentschlossene Neutrinos

Solche Phänomene, die nicht ins Standardmodell passen, werden im Physikerjargon ‘Beyond Standard Model’ oder einfach nur ‘BSM’ genannt. Zwei Phänomene sind meiner Ansicht nach besonders interessant:

 

1. Dunkle Materie.

Dunkle Materie heißt so, weil wir sie nicht sehen können, und zwar weder mit elektromagnetischer Strahlung im sichtbaren Bereich, noch in anderen Wellenlängenbereichen, die uns heute dank technischer Erweiterung unserer Augen zur Verfügung stehen. Nun wird man sich berechtigterweise fragen, warum Physiker an Materie glauben, die sie nicht sehen können.

Für Dunkle Materie gibt es einen erschlagenden Katalog an Hinweisen, der in jedem Indizienprozess überzeugen würde. All diese Indizien beruhen darauf, dass Masse Gravitation verursacht.

So beobachtet man etwa, dass sich Spiralgalaxien – wie auch unsere Milchstraße – zu schnell um sich selbst drehen. Diese Mechanik, die im Grunde den gleichen Gesetzen folgt wie die Rotation des Mondes um die Erde oder der Erde um die Sonne, ist nicht alleine durch die Anziehungskraft der sichtbaren Masse in der Galaxie erklärbar. Aber auch auf anderen Längenskalen im Universum macht man Beobachtungen, die die gleichen Schlüsse über die Existenz und Häufigkeit der Dunklen Materie zulassen: Wir wissen, dass die sichtbare Materie etwa 5% der Energie im Universum ausmacht, Dunkle Materie jedoch 20%. Die restlichen 75% sind Dunkle Energie, ein weiteres Phänomen ‘BSM’; ein Thema für sich.

Da das Standardmodell jedoch keinen passablen Kandidaten für die Dunkle Materie liefert, welcher alle Anforderungen erfüllen würde, muss es unvollständig sein.

 

2. Neutrinooszillationen.

Neutrinos und ihre Antiteilchen, die Antineutrinos, sind elektrisch neutrale Elementarteilchen. Auch sie wurden vor etwa 85 Jahren zunächst theoretisch vorhergesagt und dann deutlich später experimentell bestätigt. Wir wissen, dass Neutrinos in drei Varianten vorkommen: Es gibt Elektron-, Myon- und Tau-Neutrinos, und jeweils das passende Antineutrino dazu.

Neutrinos spielen bei vielen Kernprozessen eine Rolle, also zum Beispiel bei der Kernfusion in der Sonne oder bei der Kernspaltung in Reaktoren. Der Reaktor in einem durchschnittlichen Kernkraftwerk erzeugt in etwa zehn Trilliarden Antineutrinos pro Sekunde, während die Sonne nochmals um viele Größenordnungen mehr davon produziert. Im Kernreaktor werden Elektron-Antineutrinos erzeugt. Nach ihrer Geburt verlassen die Neutrinos mit nahezu Lichtgeschwindigkeit den Reaktorkern, da sie nur sehr schwach mit der Reaktorhülle interagieren, und daher quasi nicht gestoppt werden können.

Mit großen und hochsensiblen Detektoren lassen sich jedoch ein paar Neutrinos in einiger Entfernung nachweisen. Dabei stellt man fest, dass sich Elektron-Antineutrinos während ihrer Reise in Myon- und Tau-Antineutrinos umgewandelt haben. Diese Beobachtung ist unter dem Namen ‘Neutrino-Oszillationen’ bekannt und lässt darauf schließen, dass Neutrinos eine Masse haben. Für ihre Arbeit an entsprechenden Experimenten erhielten Arthur McDonald und Takaaki Kajita 2015 den Nobelpreis für Physik.

Dass Elementarteilchen eine Masse haben, ist prinzipiell durch den Higgs-Mechanismus verstanden worden. Das Besondere an der Masse der Neutrinos ist nun, dass ihre Masse laut Standardmodell eigentlich gleich null sein müsste. Diese Aussage beruht auf dem absoluten Grundpfeiler des Standardmodells, der sogenannten Eichinvarianz. Dieses Prinzip besagt anschaulich, dass physikalische Realitäten sich nicht ändern dürfen, wenn verschiedene gedachte Beobachter im Universum lokal einen anderen ‘Maßstab’ wählen. Schließlich ist auch die Entfernung von Berlin nach London immer die gleiche, ob man nun in Kilometern, Meilen oder Lichtjahren messen will. Auch hier wird wieder deutlich, dass das Standardmodell nicht der Weisheit letzter Schluss sein kann.

 

Das kosmische Spinnennetz

Nun ist es offensichtlich, dass das Standardmodell erweitert bzw. verändert werden muss, um diese Beobachtungen hinreichend zu erklären. Und was liegt dabei näher als der Versuch, möglichst viele neue Phänomene mit möglichst wenig neuer Theorie zu erklären?

So beschäftigt sich die Arbeitsgruppe von Dr. Georg Raffelt am Max-Planck-Institut für Physik in München, der ich seit August 2014 angehöre, unter anderem mit Modellen, die sowohl die Neutrinomasse als auch die Frage nach der Art der Dunklen Materie gleichzeitig angehen. Dazu postulieren wir weitere Arten von Neutrinos, welche das ganze Budget an Dunkler Materie im Universum bereitstellen könnten. Diese neuen Neutrinos werden sterile Neutrinos genannt, da sie selbst im Vergleich zu den bekannten Neutrinos (aktive Neutrinos genannt), nur sehr schwach mit dem Rest des Standardmodells wechselwirken.

Eine gute Theorie sollte testbare, im Zweifel widerlegbare Vorhersagen liefern. So sollte sie in unserem Falle etwa erklären, wie die sterilen Neutrinos in der Frühzeit des Universums entstanden sind und ob die Vorhersagen aus diesem Geburtsprozess mit den heutigen Gegebenheiten im Kosmos übereinstimmen.

Eine für unsere Arbeit sehr wichtige Anforderung ist die sogenannte kosmische Strukturbildung. Aus der Messung der kosmischen Hintergrundstrahlung – Nobelpreise 1978 (Arno Penzias und Robert Woodrow Wilson) sowie 2006 (George Smoot und John Cromwell Mather) – wissen wir, dass das Universum etwa 380.000 Jahre nach dem Urknall sehr homogen war. Die Materiedichte war also überall gleich, Schwankungen waren von der Größenordnungen von 1:100.000 und somit minimal. Das heutige zeichnet sich Universum jedoch durch sehr hohen Dichteunterschiede aus: Galaxien als relativ dichte Objekte gruppieren sich wiederum zu Galaxienhaufen und -superhaufen. Diese Strukturen durchspannen den Kosmos wie eine Art Spinnennetz, und dazwischen ist nichts als unvorstellbar viel leerer Raum.

 

Evolution der großskaligen Strukturen im Universum von frühen Zeiten (links) zum heutigen Zustand (rechts). Der Ausschnitt entspricht einer Längenskala von etwa dem 5000-fachen Durchmesser der Milchstraße. Deutlich zu erkennen ist die Bildung von spinnennetzartigen Strukturen. Credit: Volker Springel/Max-Planck-Institute for Astrophysics

Evolution der großskaligen Strukturen im Universum von frühen Zeiten (links) zum heutigen Zustand (rechts). Der Ausschnitt entspricht einer Längenskala von etwa dem 5000-fachen Durchmesser der Milchstraße. Deutlich zu erkennen ist die Bildung von spinnennetzartigen Strukturen. Credit: Volker Springel/Max-Planck-Institute for Astrophysics

Die Entwicklung dieser Strukturen wurde durch die Dunkle Materie angestoßen, die durch ihre eigene Gravitation kleine Dichteschwankungen über die Zeit verstärken konnte: Wo ein bisschen mehr Materie war als im Durchschnitt, war auch die Gravitation ein bisschen stärker als in weniger dichten Gebieten. Dadurch wurde noch mehr Masse dorthin gezogen, was den Effekt wiederum verstärkte usw. Dieser kosmische Matthäuseffekt war die Grundlage für die heute vorhandenen Strukturen von Galaxien und Galaxienhaufen.

Dabei ist die Geschwindigkeit der Dunklen Materie im frühen Kosmos entscheidend: Ist sie zu schnell, kann sie die überdichten Regionen schnell verlassen, die Dichteschwankungen schaukeln sich nicht so stark auf. Folglich entstehen weniger kosmische Strukturen, die heute durch die Rotverschiebung der Emissionslinien von Wasserstoff sehr gut kartiert werden können. Durch den Vergleich von Simulationen und Beobachtungen lassen sich somit die freien Parameter unserer Theorie eingrenzen.

 

What’s next?

Neben der genannten Theorie gibt es noch viele andere Versuche, die Physik jenseits des Standardmodells zu erklären. Um in Zukunft möglichst viele Theorien zu widerlegen und der bestmöglichen Beschreibung unseres Kosmos einen Schritt näher zu kommen, werden derzeit neben den theoretischen viele experimentelle Anstrengungen unternommen: Neue Neutrinodetektoren für bessere Oszillationsexperimente, aber auch bessere Detektoren, die Dunkle Materie im Labor nachweisen sollen, sind weltweit in Betrieb oder in Planung. Nicht zuletzt soll natürlich auch der LHC neue Einsichten in die Teilchenphysik liefern.

Auch wenn es noch völlig offen ist, in welche Richtung die Teilchenphysik das Standardmodell erweitern muss, so ist eine Vorhersage doch sicher: Es bleibt spannend!

Wissenschaft an der Grenze zwischen dem unvorstellbar Großen und dem unvorstellbar Kleinen

theater1Educate. Inspire. Connect. Das ist das Motto der Lindauer Nobelpreisträgertagung und ich habe mich heute inspirieren lassen. Eine andere Möglichkeit hatte ich auch gar nicht, denn der Vortrag von Carlo Rubbia blieb weitestgehend unverständlich für mich. Zu schnell folgten die dicht beschriebenen Folien aufeinander, zu viele Formeln und wissenschaftliche Diagramme wurden gezeigt, die ich nicht verstanden habe. Aber das, worüber der Physik-Nobelpreisträger des Jahres 1984 gesprochen hat, war faszinierend. Es ging um die Verbindung zwischen dem Großen und dem Kleinen; zwischen der Mikrowelt der Elementarteilchen und dem gesamten Universum. Im Foyer des Lindauer Stadttheaters, in dem Rubbias Vortrag stattfand, wurden die Gäste mit einem Zitat von Oscar Wilde begrüßt: “Die Bühne scheint mir ein Treffpunkt von Kunst und Leben zu sein.” Heute war die Bühne ein Treffpunkt des unvorstellbar Kleinen und des unvorstellbar Großen.

“Future Accelerators for Astro-Particle Physics” lautete der Titel von Rubbias Vortrag. Astro-Teilchenphysik: Die Verbindung von Kosmos und Elementarteilchen scheint weit her geholt zu sein. Aber wenn man ein wenig genauer darüber nachdenkt, dann ist klar, dass sie existieren muss. Die Astronomen waren zum Beispiel erst dann in der Lage zu verstehen, wie ein Stern funktioniert, als die Quantenphysiker die Geheimnisse der Atome entschlüsselt hatten. Im Inneren der Sterne verwandeln sich Protonen in Neutronen und umgekehrt; verschmelzen Atomkerne miteinander und selbst der mysteriöse “Tunneleffekt”, der es Teilchen erlaubt, an Orte zu gelangen, die sie normalerweise nicht erreichen können, ist nötig, um einen Stern am Ende zum Leuchten zu bringen. Die Astronomen benötigen die Erkenntnisse der Teilchenphysiker, um Sterne und Galaxien verstehen zu können. Den Kosmologen geht es nicht anders: Als sie herausfanden, dass das Universum vor 13,8 Milliarden Jahren seinen Anfang als nahezu unendlich kleines und unendlich dichtes Objekt hatte, mussten auch sie die Wissenschaft der Mikrowelt benutzen, um es beschreiben zu können.

Andererseits finden die Teilchenphysiker im Universum über ihren Köpfen Beschleuniger, die alles übertreffen, was sie hier unten auf der Erde bauen können. Der Large Hadron Collider in Genf ist mit seinem Durchmesser von 27 Kilometer eine der größten Maschinen, die je von Menschen gebaut worden ist, und verblasst doch gegenüber dem, was der Kosmos zu bieten hat. Schwarze Löcher, die Milliarden mal mehr Masse haben als unsere Sonne, schleudern Teilchen schneller aus den Zentren ferner Galaxien, als es der LHC je tun könnte und explodierende Sterne erzeugen elektromagnetische Strahlung in einer Menge, die kein Gerät aus Menschenhand je erreichen kann.

Die Wissenschaftler auf der Erde müssen einen enormen Aufwand betreiben, um hochenergetische Teilchenströme im Inneren ihrer Beschleuniger zu erzeugen. Die Kollisionen, die sie vorsätzlich in ihren riesigen Detektoren stattfinden lassen, passieren aber ständig und ganz von selbst auch hoch oben in der Atmosphäre unseres Planeten. Dort trifft die kosmische Strahlung, die von den astronomischen “Beschleunigern” überall im Universum erzeugt wird, auf die Atome und Moleküle unserer Lufthülle. Das, was dort geschieht, ist allerdings viel schwerer zu beobachten als die kontrollierten Kollisionen in den irdischen Beschleunigern. Aber wenn es den Forschern doch gelingt, einen Blick darauf zu werfen, sind sie von der Wucht mancher Zusammenstöße so überrascht, dass sie zu religiösen Metaphern greifen: Am 15. Oktober 1991 beobachtete ein Experiment der Universität Utah ein Teilchen der kosmischen Strahlung mit so hoher Energie, das es bis heute als “Oh-My-God-Teilchen” bezeichnet wird. Seine Energie war zwei Million mal größer als die maximale Energie, mit der Teilchen vom LHC beschleunigt werden können.

So wie in den Beschleunigern der Wissenschaftler entstehen auch bei den Kollisionen zwischen kosmischer Strahlung und Erdatmosphäre neue Teilchen. Hoch oben über unseren Köpfen wurde das intensiv gesuchte Higgs-Boson schon in großen Mengen produziert, lange bevor es die Physiker im Jahr 2012 endlich nachweisen konnten. Aber um diesen Nachweis führen zu können, war der Bau einer gigantischen Maschine wie dem LHC eben unumgänglich. Die vom Universum veranstalteten Kollisionexperimente nutzen uns nicht viel, wenn wir nicht auch passende Detektoren haben die die Resultate aufzeichnen können. Und wenn wir weiterhin und vor allem besser verstehen wollen, wie das Universum funktioniert, werden wir demnächst auch neue Beschleuniger brauchen.

Picture/Credit: Christian Flemming/Lindau Nobel Laureate Meetings

Picture/Credit: Christian Flemming/Lindau Nobel Laureate Meetings

Warum entstand beim Urknall mehr Materie als Antimaterie? Woraus besteht die dunkle Materie? Welche Eigenschaften hat das Higgs-Teilchen? Woraus besteht alles wirklich? Das sind Fragen, auf die wir immer noch keine Antwort haben und um diese Antworten irgendwann finden zu können, wird der LHC nicht ausreichen, ist Carlo Rubbia überzeugt. Um die Genauigkeit und Reichweite der Experimente zu erhöhen, müssten wir noch gigantischere Anlagen bauen. Einen unterirdischen Ring mit einer Länge von 100 Kilometern, gegen den der LHC wie ein Kinderspielzeug aussieht zum Beispiel, oder einen 50 Kilometer langen Linear-Beschleuniger. Diese Maschinen wären noch teurer als die bisherigen und es würde viel länger dauern, sie zu bauen. Und selbst dann wäre zweifelhaft, ob sie wirklich in der Lage wären, die Experimente in der Qualität durchzuführen, die sich die Wissenschaftler wünschen.

Rubbia will für die Zukunft auf eine ganz andere Technik setzen; eine Technik, in der sich ein weiteres Mal die tiefe Verbindung zwischen Kosmos und der Welt der winzigen Teilchen zeigt. Er möchte, dass in den Beschleunigern der Zukunft Myonen miteinander kollidieren. Dieses Elementarteilchen wurde im Jahr 1936 entdeckt und zwar nicht in Beschleunigern, sondern eben bei der Untersuchung der kosmischen Strahlung: Myonen sind das Resultat der hochenergetischen Kollisionen über unseren Köpfen. Die Teilchen ähneln den Elektronen, sind aber ungefähr 200 Mal schwerer und existieren nur ein paar Millionstel Sekunden lang, bevor sie wieder zerfallen. Ihre große Masse macht sie ideal für den Einsatz in Beschleunigern; ihre kurze Lebensdauer ist der Grund, warum sie bisher nicht eingesetzt worden sind.

Im LHC lassen die Wissenschaftler zur Zeit Protonen miteinander kollidieren. Die sind leicht zu kriegen, aber selbst keine Elementarteilchen und die Zusammenstöße daher nicht “sauber”. Es treffen eben nicht einzelne Teilchen aufeinander, sondern zusammengesetzte Objekte. Bei der Kollision der elementaren Elektronen hat man dieses Problem nicht, aber weil sie so leicht sind, muss man sehr viel Energie aufwenden, um sie mit ausreichend hoher Energie aufeinanderprallen zu lassen. Das ist bei den schwereren Myonen einfacher und da auch sie elementar sind, denken die Wissenschaftler schon lange über Myonen-Beschleuniger nach. Man muss nur einen Weg finden, sie während ihrer kurzen Lebensdauer ausreichend zu kontrollieren und zu fokussieren, damit zwei Myonenstrahlen auch wirklich kollidieren und nicht aneinander vorbei laufen.

Aber Rubbia ist überzeugt, dass genau das technisch machbar ist. Und dass der Bau eines Myonen-Beschleunigers politisch viel leichter durchzusetzen wäre. Brauchbare Ergebnisse bekäme man hier schon mit vergleichsweise kleinen Anlagen. Anstatt einen 100 Kilometer langen Tunnel unter dem Genfer See und weit unter der Schweiz und Frankreich hindurch zu graben, käme man mit einem wenige dutzend bis hunderte Meter durchmessenden Beschleuniger zurecht, den man problemlos in den bisherigen CERN-Komplex integrieren könnte. Die Kosten würden nur einen Bruchteil dessen betragen, was man aufwenden müsste, wenn man die bisherige Technik immer weiter vergrößert. Noch aber ist es nicht so weit. Rubbias Zukunftstechnologie für die Astro-Teilchenphysik ist noch nicht etabliert genug, um eingesetzt zu werden. Aber er ist überzeugt davon, dass es der richtige Weg ist, wenn wir mehr über die Verbindung zwischen der Welt des Kleinen und der Welt des Großen erfahren wollen.

Das ganze Universum ist ein paar Quadrillionen mal größer als wir Menschen. Die kleinsten Elementarteilchen sind ein paar Quadrillionen mal kleiner als wir. Wir stehen genau in der Mitte zwischen dem Kosmos und seinen fundamentalen Bestandteilen. Der ideale Platz also, um die Verbindung zwischen beidem zu verstehen!

Der Nobelpreis für Astronomie

Es gibt Nobelpreise für Physik, Chemie, Medizin, Literatur und Frieden. Warum sich Alfred Nobel gerade für diese Kategorien entschieden hat, ist nicht bekannt. Mit Physik, Chemie und Medizin ist die Naturwissenschaft natürlich nicht komplett abgedeckt. Viele Wissenschaftler müssen beim Rennen um den Nobelpreis daher zwangsläufig leer ausgehen.

In der Physik werden die Nobelpreise gerne für Entdeckungen auf dem Gebiet der Teilchenphysik vergeben. Andere Teilgebiete werden viel seltener ausgezeichnet. Die Geophysik hat beispielsweise noch nie eine Entdeckung hervor gebracht, die mit einem Nobelpreis ausgezeichnet wurde. Das bedeutet natürlich nicht, dass die Geophysik unwichtiger wäre als die Teilchenphysik. Auch hier wurden fundamentale und revolutionäre wissenschaftliche Erkenntnisse gewonnen – man denke nur an die Theorie der Plattentektonik! Die Astronomie teilte lange Zeit das Schicksal der Geophysik.

Einen eigenen Nobelpreis für Astronomie gibt es nicht und man kann darüber streiten, ob die Astronomie ein Teil der Physik ist und astronomische Leistungen daher prinzipiell ebenfalls nobelpreiswürdig sind oder ob die Astronomie eine eigene Wissenschaft und daher für das Nobelpreiskommitee nicht von Interesse ist (so wie zum Beispiel auch die Mathematik). Ich persönlich neige zu der Ansicht, dass Astronomie tatsächlich eine andere Wissenschaft ist als die Physik. Das liegt schon allein an der unterschiedlichen Ausgangssituation: Die astronomischen Forschungsobjekte sind alle unvorstellbar weit entfernt und keiner direkten Untersuchung zugänglich. Im Gegensatz zu Physikern können Astronomen nicht in Labors direkt experimentieren, ihnen stehen nur indirekte Beobachtungen zur Verfügung. Auch das Nobelpreiskommitee war lange der Ansicht, dass Astronomie und Physik zwei unterschiedliche Dinge sind und verlieh keine Preise für astronomische Entdeckungen.

Deswegen erhielt zum Beispiel Edwin Hubble nie einen Nobelpreis, obwohl seine Entdeckungen ihn absolut verdient hätten. Er fand heraus, dass unsere Galaxie nur einen kleinen Teil des gesamten Universums ausmacht und das sich das Universum ausdehnt und einen Anfang hatte und er legte damit den Grundstein für die komplette moderne Astronomie und Kosmologie. Hubble selbst setzte sich immer dafür ein, den Physikpreis auch für Astronomen zugänglich zu machen. Als das Kommitee endlich bereit dazu war, konnte Hubble nicht mehr davon profitieren. Er starb kurz bevor ihm der Nobelpreis für Physik des Jahres 1953 verliehen werden konnte.

Seitdem sind aber auch astronomische Leistungen preiswürdig. Die Astronomen kommen zwar nicht oft an die Reihe, aber doch immer wieder. 1983 wurden Subrahmanyan Chandrasekhar und William Fowler für ihre Arbeit zur Entwicklung der Sterne und der Entstehung der Elemente in den Sternen ausgezeichnet (Fred Hoyle, der Partner von William Fowler der die eigentliche Grundlagenarbeit geleistet hatte, wurde aber seltsamerweise übergangen). 1974 wurde die Entwicklung der Radioastronomie durch Martin Ryle und Antony Hewish ausgezeichnet und 2002 erhielt Riccardo Giacconi den Preis für seine Pionierarbeit auf dem Gebiet der Röntgenastronomie. Die meisten Preise wurden aber für Leistungen auf dem Gebiet der Kosmologie vergeben. Zum Beispiel letztes Jahr, als die Entdecker der dunklen Energie ausgezeichnet wurden. 

So wie die Teilchenphysik scheint auch die Kosmologie vom Nobelpreiskommitee bevorzugt behandelt zu werden. Natürlich mit einer gewissen Berechtigung. Wenn es darum geht, das Universum in seiner Gesamtheit besser zu verstehen, dann müssen wir mehr über seine Bestandteile herausfinden (Teilchenphysik) oder seine Entwicklung besser verstehen (Kosmologie). Aber das bedeutet nicht, dass die “klassischen” Disziplinen nichts beizutragen hätten. Die Entdeckung, dass auch andere Sterne von Planeten umkreist werden und unser Sonnensystem nicht das einzige seiner Art ist, ist mindestens so revolutionär wie die Entdeckung der dunklen Energie. Wenn alles mit rechten Dingen zugeht, dann sollten also in den nächsten Jahren auch Michel Mayor und Didier Queloz (die 1995 den ersten Planeten eines sonnenähnlichen Sterns fanden) mit einem Physik-Nobelpreis ausgezeichnet werden.

Nobelpreisträger sind ohne Zweifel große Wissenschaftler die Großes geleistet haben. Man kann von ihnen viel lernen und genau das ist der Grund, warum jedes Jahr hunderte Nachwuchswissenschaftler nach Lindau kommen. Das ist der Grund, warum die Medien jedes Jahr anwesend sind und warum wir darüber bloggen: Wir erhoffen uns von den ausgezeichneten Wissenschaftlern informative, spannende und relevante Aussagen über die es sich zu berichten lohnt. Aber wie Blogkollege Markus Pössel kürzlich festgestellt hat, sollten wir uns nicht hinreißen lassen. Der Nobelpreis ist ein wichtiger Preis. Aber Nobelpreisträger sind auch nur Menschen. Und andere Wissenschaftler haben ebenso wichtige Forschungsergebnisse gewonnen, ohne dafür mit einem Preis bedacht zu werden. Wenn sich in 10 Tagen in Lindau die Nobelpreisträger treffen, dann wird das ein großartiges Ereignis werden! Ich freue mich schon sehr darauf zu hören, was die großen Vertreter ihres Faches zu sagen haben. Man darf nur nicht den Fehler machen, den Rest der Wissenschaft darüber zu ignorieren.

Von der Lichtuhr zum Frequenzkamm: Theodor Hänsch

Als jemand, der sich inzwischen schon eine ganze Weile damit beschäftigt, wie man Einsteins Relativitätstheorien möglichst allgemein verständlich erklären kann, kenne ich sie natürlich: Die Lichtuhr. Bei Einstein ist sie nur ein Gedankenexperiment, eine hypothetische Uhr mit möglichst einfacher Bauweise: zwei Spiegel, in konstantem Abstand parallel zueinander angebracht, zwischen denen ein kurzer Lichtpuls hin und her läuft. Da der Abstand der Spiegel konstant ist, braucht auch der Lichtpuls für eine Rundreise (erster Spiegel — zweiter Spiegel — wieder am ersten Spiegel angekommen) immer die gleiche Zeit. Das ist bei dieser Uhr die elementare, immer gleiche Zeiteinheit. Und weil die Uhr vom Prinzip her so einfach ist, kann man daran schön Effekte der speziellen Relativitätstheorie erklären, etwa die Zeitdilatation.

Insofern habe ich einen ganz besonderen Grund, die Arbeit von Theodor Hänsch vom Max-Planck-Institut für Quantenoptik in München interessant zu finden. Hänsch hat seinen Nobelpreis (Physik 2005) nämlich dafür erhalten, dass er diese Gedankenexperiment-Lichtuhr tatsächlich gebaut hat. Nun gut, etwas anders sieht Hänschs Lichtuhr schon aus: Zwischen den Spiegeln ist ein lichtverstärkendes Medium eingebaut (dadurch wird das ganze zu einem Laser), und ein Teil des Lichtpulses wird jeweils ausgekoppelt, entkommt also durch den einen (halbdurchlässigen) Spiegel nach draußen. Der Witz besteht dabei auch nicht darin, Gedankenexperimente der Relativitätstheorie nachzuspielen, sondern darin, dass solch eine regelmäßige Reihe von Lichtpulsen ein sehr einfaches Spektrum hat: Schaut man sich an, welche einfachen Sinuswellen man überlagern muss, um ein solches Muster zu bekommen, dann sind das alles Wellen mit einer Schwingungsdauer, die ein vielfaches des zeitlichen Abstands ist, in dem die Pulse losgeschickt werden. Grafisch dargestellt ergibt sich als Spektrum ein regelmäßiges Linienmuster, nach dem das ganze denn auch “Frequenzkamm” benannt wurde. Mit einem einzigen Laser bekommt man gerade mal eine einzige solcher Linien hin, nämlich diejenige, die der (wenn man gut ist, hochkonstanten) Frequenz des Lasers entspricht. Um das nachzubauen, was ein Frequenzkamm kann, müsste man simultan 100.000 ultrastabile Laser betreiben.

Das mag jetzt ohne Bilder kompliziert klingen — Hänsch hatte schöne Bilder, unter anderem eine Animation mit Pendeln, in denen das Prinzip sehr schön illustriert war! —, aber den Nutzen solcher extrem regelmäßigen Pulsreihen kann man auch so einsehen: Genau wie bei Einstein haben wir es mit einer schnell tickenden, hochpräzisen Uhr zu tun. Die kann man für alle denkbaren Zeit- und Frequenzmessungen einsetzen: Hochpräzise Atomuhren. Präzisionsspektroskopie aller Arten. Und, das schlug bei mir wieder den Bogen zu meinem gewohnten Wissenschaftsumfeld, eine besonders schöne Anwendung: Eine Methode, nach Planeten um andere Sterne (“Exoplaneten”) zu suchen, die so genannte Radialgeschwindigkeitsmethode, ist auf hochgenaue Frequenzmessungen angewiesen. Eine mögliche neuartige Lösung: Frequenzkämme! Auch eine ganz neuartige Messung könnte mit so genauen Frequenzmessungen (und der nächsten Generation von Teleskopen) möglich werden: Der direkte Nachweis, wie sich die Ausdehnungsrate unseres Weltalls mit der Zeit verändert.

Ganz zum Schluss dann noch eine Überraschung: Auch das Spektrum des einfachsten Atoms, des Wasserstoffs (ein Proton, ein Elektron) lässt sich mit Frequenzkämmen hochgenau messen. Die Frequenzen der verschiedenen Spektrallinien lassen sich mit einer Formel berechnen, in der die so genannte Rydberg-Konstante vorkommt, die wesentliche Spektraleigenschaften des Wasserstoffs zusammenfasst. Allerdings kommen in der genauen Version der Formel auch einige Eigenschaften des Protons vor, die nicht so akkurat bekannt sind, und das begrenzt dann die Genauigkeit, mit der sich die Rydberg-Konstante bestimmen lässt. Hänsch erwähnte nun eine neue Messung, die vom Paul-Scherrer-Institut in der Schweiz stammt und in der kommenden Woche in Nature veröffentlicht werden soll. Genaueres durfte er nicht sagen, aber es wurde klar: Da gibt es wohl einiges an Diskrepanz zwischen Theorie und Messung. Und das führt ja typischer Weise zu interessanter neuer Wissenschaft…


2008 gab Theodor Hänsch dem Lindaublog ein Interview “Maybe the world is not simple“.

Robert Laughlin: Alles wird gut!

Unter all den Zukunftsoptimisten, die ich bis jetzt gesehen habe, ist der Physik-Nobelpreisträger Robert B. Laughlin zweifellos einer der unbekümmertsten. Er ignoriert einfach mal die leidige Klima- und Ressourcenpolitik des frühen 21. Jahrhunderts und springt sechs Generationen in die Zukunft, ins Jahr 2210. In eine Welt ohne Kohle oder Erdöl.

Das sind die Rahmenbedingungen für das gestern Nachmittag entworfene Szenario, in dem sich Laughlin über Ressourcenkonflikte keine Gedanken macht – “Eine Eurer Aufgaben wird sein, zu verhindern, dass aus diesen Konflikten Kriege entstehen” ruft er dem Nachwuchs im Publikum zu. Erfolgreich delegieren für Fortgeschrittene.

Der Nobelpreisträger von 1998 jedenfalls beschäftigt sich lieber mit der Frage, welche grundsätzlichen Rahmenbedingungen das Leben unserer Ur-Ur-Ur-Urenkel dereinst bestimmen wird, und er hat da ganz pragmatische Prioritäten. Die erste Frage, die er in den Raum stellt ist die, ob unsere entfernten Nachfahren Autos fahren werden. Ganz klare Sache, finden alle Anwesenden, das wird wohl so sein. Und da sich alle so einig sind, ist die nächste Frage auch gleich etwas heimtückischer: Warum?

Kohle und Öl sind derzeit unangefochten die wichtigsten Energieträger der Menschheit, und es gibt nicht unendlich viel von ihnen. Wie lange die Vorräte noch halten werden ist offen, aber mit Öl wird in den nächsten 100 Jahren Schluss sein – das zusätzliche Öl aus unkonventionellen Quellen schlucken die chinesischen Autos, sagt Laughlin – und mit Kohle vielleicht 100 Jahre später.

Warum also werden die Menschen im Jahr 2210 noch Auto fahren? Mit der Antwort kann man eigentlich Laughlins gesamten Vortrag zusammenfassen: Die Leute wollen Auto fahren, also wird es irgendwie so kommen. Hier geht es wie gesagt nicht um praktische Erwägungen – sondern darum, dass sich auch ohne Kohle und Öl an unserer technischen Konsumkultur bitte nicht allzu viel ändern soll, und Laughlin überlegt sich, wie das möglicherweise physikalisch möglich sein könnte.

Laughlin sieht durchaus das Problem, dass das GDP von Staaten und der ganzen Welt ziemlich proportional zum Energieverbrauch ist und niemand nennenswert weniger Energie verbrauchen kann, ohne die Wirtschaft kollabieren zu lassen. Seine Lösung: Der Energieverbrauch bleibt einfach so wie er ist, nur halt besser. Energie gibt es genug, in Sonne, Wind und Wasser, das ist die Idee.

Also machen wir uns keine Sorgen, ob es möglicherweise die eine oder andere prinzipielle Schwierigkeit mit den „Erneuerbaren“ geben könnte, und konzentrieren uns auf die nächste entscheidende Frage: Werden die Menschen im Jahr 2210 noch fliegen? Hier ist das Publikum deutlich kritischer, denn während Elektroautos ohne weiteres möglich sind, wird kein Verkehrsflugzeug je mit Strom fliegen. Dazu ist die Energiedichte der Batterien zu gering. Und damit kommen wir zum eigentlichen Problem, das Laughlin bei der Energieversorgung der Zukunft sieht: Kohlenstoffknappheit.

Ein Flugzeugtreibstoff nämlich muss zuerst per Masse genug Energie enthalten, um sich selbst vom Boden zu heben, erst dann kann der Überschuss verwendet werden, um den Rest des Flugzeugs fliegen zu lassen. Gibt es einen Energieträger mit höherer Energiedichte als Flugbenzin? Nein, und zwar aus theoretischen Gründen. Wenn Öl und Kohle verbraucht sind, werden wir extrem energiereiche Kohlenwasserstoffe wie Kerosin synthetisch herstellen müssen – oder auf Luftreisen verzichten.

Jeder Chemiker weiß jetzt natürlich, wo die Reise hin geht, und der Nobelpreisträger erklärt konsequenterweise Franz Fischer zum “Man of the 21st century”. In seiner Vision wird zuerst das Öl aufgebraucht, dann kommt die Kohle (weil es teurer ist, hochwertigen Kraftstoff daraus herzustellen), und wenn die Kohle aufgebraucht ist, werden die erneuerbaren Energiequellen abheben. Denn ohne sie werden wir nicht in der Lage sein, Kohlenstoff im großen Stil aus der Atmosphäre zurückzugewinnen, um auf die Kanaren in Urlaub zu fliegen.

Die dritte Frage, die er an diesem Tag stellt, ist die nach der Elektrizität der Zukunft. Für ihn ist es keine Frage, dass es auch nach der fossilen Ära nicht nur Strom in großen Mengen geben wird sondern auch noch billiger denn je. Denn nicht Energieknappheit ist für ihn das Problem, sondern all der gute Kohlenstoff, dessen Ernte aus der Atmosphäre das größte technische Problem in Laughlins Jahr 2210 zu sein scheint.

Laughlins Argumentation hat etwas rührend naives: Die billige Energie wird kommen, weil wir sie brauchen – dass eine allgemeine Energieversorgung aus erneuerbaren Quellen möhlicherweise etwas teurer und etwas weniger universell verfügbar sein könnte (worauf einiges hindeutet), diese Möglichkeit kommt bei Laughlin nicht vor. Alles wird gut, sagt er. Und damit wissen wir auch, warum er auf eine Zeit sechs Generationen in die Zukunft guckt. In den nächsten zwei Generationen, die sich mit all dem rumschlagen müssen, das Laughlin praktischerweise in seinem Vortrag beiseite gelassen hat, wird nämlich alles ganz und gar nicht gut. Und wer will das schon erzählen, bei dem schönen Wetter?

The History of the Universe

John Mather is humble when describing his measurements of the cosmic microwave background radiation despite the fact that Steven Hawking described this measurement as possibly the most important discovery humans have ever made. The cosmic microwave background radiation is the remnant glow of the Big Bang; it is the primary evidence.  Mather is careful to place his work in context next to the original work of Penzias and Wilson who made the first measurement of the cosmic microwave background radiation.

The cosmic microwave background (CMB) was first measured by Penzias and Wilson in 1965, but it was predicted decades earlier independently by several astrophysicists. You can read about the journey Penzias and Wilson took to making their discovery in this previous post on pigeon waste, cosmic melodies and noise in scientific communication. Cosmologists were not content with the first tenuous measurement of the 2.7 kelvin background, but they would have to wait until the Cosmic Microwave Background Explorer (COBE) was launched in 1989 to measure the CMB to one part in 100,000 or 30 millionths of a degree difference in temperature. In 2006 John Mather and George Smoot received the Nobel Prize in physics for their discovery of the blackbody form and anisotropy of the CMB. Mather and Smoot’s precision measurements indicated that the Big Bang produced radiation that was perfectly consistent with the theoretical predictions for a blackbody and that the anisotropy, or spatial variations, of the relic radiation were extremely miniscule. The observations fit the theory so well that when plotting the data the error bars must be enlarged to make them visible.
Mather told the attendees the entire history of the Universe during a morning lecture. First, there was the Big Bang. Then a brief period of stupendous growth occurred known as inflation. The early Universe was extremely hot and contained simple particles of matter as well as antimatter; the matter and antimatter annihilated upon contact until only one part per billion of of the early universe was antimatter (this is good for us, because we are made of normal matter, but a mystery to cosmologists). Within the first 3 minutes the formation of Helium nuclei had occurred. The Universe remained in a dense fog of mostly free protons, electrons, and  Helium nuclei until about 400000 years after the Big Bang. At this point the Universe had cooled enough that electrons could become captured by the free protons and Helium nuclei to form neutral atoms. The photons which up until this point had been scattering off of the free particles suddenly found that they could effectively travel the entire distance of the universe before having another scattering. These photons cooled as they traversed the expanding Universe until they encountered the detectors on COBE.
 
 
If Mather is the stoic scientist, then Smoot is the adventuring explorer. In a break away afternoon session Smoot had the opportunity to tell young scientists a few more details about the CMB and the ramifications. The minor variations in the CMB are quantum fluctuations that were super sized during the period of inflation. Smoot says that our own galaxy was a quantum fluctuation at one time. Through analysis of the CMB with the technique of spherical harmonics Smoot is keen to stress that the early Universe is extremely linear and that deviations from the known amount of dark matter, dark energy, or age of the universe creatures significant inconsistencies with the data and the theory. 
Every galaxy we observe today is related to the small perturbations present in the early Universe. The cold spots in the CMB are slightly denser than the surrounding areas and so as the universe evolved gravity’s long range attractive forces meant that over densities were inherently unstable. The over densities grew larger and larger until galaxies, clusters, and super clusters formed. Today, astronomers are measuring the result of this growth of structure through galaxy surveys such as as the Sloan Digital Sky Survey. The observed distribution of galaxies is perfectly consistent with the theories.
 
Telling the entire history of the Universe must be a humbling job. Astronomers, Mather says, actually have a simple job of describing the universe, galaxies, stars, and places where life may form. Astronomers don’t actually have to say how life formed, but there are researchers and Nobel Laureates here at Lindau who are trying to answer that exact question. Mather finished his talk with more questions than answers. How did we get here? Are we alone? What happens next?

Größenordnungen und Tellerränder

Jetzt hat das Treffen wirklich begonnen, und ein Nobelpreisträgervortrag folgt auf den nächsten. Natürlich bin ich auf die großen Themen gespannt, die Querverbindungen zu meinem eigenen wissenschaftlichen Hintergrund haben — Teilchenphysik, Astrophysik, Kosmologie —, aber an diesem Morgen habe ich mich auf den Blick über den physikalischen Tellerrand eingestellt. Molekularbiologie steht auf dem Programm, und damit für mich als biologischen Laien die Frage: Wie allgemein zugänglich sind die Lindauer Vorträge?

In Jack Szostaks Vortrag, meinem ersten für heute, fühle ich mich am Anfang ganz unerwarteter Weise wie zu Hause. Szostak (Medizin 2009) spricht über “Learning about the Origin of Life from Efforts to Design an Artificial Cell” und beginnt dabei mit Bildern, die auch aus meinem Heimatinstitut stammen könnten, dem Max-Planck-Institut für Astronomie. Da haben wir sie, die Querverbindung über 15 Größenordnungen hinweg, von wenige Mikrometer großen Zellen bis hin zu den Exoplaneten, also zu Planeten, die ferne Sterne umkreisen und derzeit ein Haupt-Beobachtungsziel der Astronomen darstellen (bislang entdeckte Anzahl: 464, Tendenz rasch steigend). Ungewohnt und reizvoll, das Thema einmal von der anderen Seite beleuchtet zu sehen: In den astronomischen Vorträgen, die ich ja nun mit einiger Regelmäßigkeit höre, wird die Suche nach Leben auf anderen Planeten zwar selbstverständlich, da wichtigstes Fernziel der Exoplaneten-Untersuchungen, erwähnt (“Suche nach der zweiten Erde”). Aber solche Vorträge steigen typischer Weise nicht tiefer in die Biologie ein, sondern gehen recht rasch zu den astronomischen Beobachtungen über. Bei Szostak ist es anders herum: Etwas Astronomie, und dann geht es ab zu den Zellen.

Nun bin ich also wirklich jenseits meines üblichen Tellerrandes, und ich bin positiv überrascht. Gut erklärt und illustriert (und durch Probleme, die Saalbeleuchtung zu dimmen, nur temporär behindert) erzählt Szostak von jüngeren Ergebnissen seiner Arbeitsgruppe so, dass auch ein nicht-Biologe wie ich gut folgen kann.

Mein erstes “Aha” ist bei Szostak nur eine Nebenbemerkung. Dazu muss man wissen: Der (noch lange nicht realisierte) Plan der Astronomen auf der Suche nach Leben auf Exoplaneten zielt auf den Nachweis ganz bestimmter chemischer Signaturen in der Atmosphäre erdähnlicher Planeten ab: Wasser und Ozon, in bestimmter Konzentration eine Kombination, die sich nur durch die massenhafte Anwesenheit von Organismen erklären lässt, die Photosynthese durchführen. Dass Szostak in seinem Vortrag kurz Möglichkeiten für nicht-wasserbasiertes Leben erwähnt (konkreteste Hoffnung: Leben auf Methan-/Ethanbasis auf dem Saturnmond Titan?), lässt mich dementsprechend aufhorchen. Das hört sich so an, als ob Astronomen und Molekularbiologen noch einigen Spaß miteinander haben dürften.

Dann kommt der eigentliche Kern des Vortrags. Darüber wird Lars Fischer hier noch ausführlich berichten — eine für mich faszinierende Welt zwischen physikalischer Chemie und Biologie, mit Fast-schon-Zellen, die für ihre Teilung noch arg auf Schütteln oder äußere Temperaturschwankungen angewiesen sind, aber schon erkennen lassen, wo dann das Evolutions-Wettrennen anfangen wird. 

Zumindest dieser Stichprobe nach zu urteilen, kann ich bestätigen: der Blick über den Tellerrand ist in Lindau mehr als nur ein Schlagwort. 

Hier als Nachtrag meine jeweils aktualisierte Liste dafür, wie es mit meinem Blick über den Tellerrand weiterging:

  • Harald zu Hausen (Montag), Human cancers linked to infections:  Bis auf einige Details gut verständlich.
  • Luc Montagnier (Montag), DNA between Physics and Biology: Anfang OK, danach für mich weniger verständlich und zu technisch; habe dann abgeschaltet und, Bastian’s Beitrag nach zu urteilen, einiges verpasst.
  • Françoise Barré-Sinoussi (Montag), HIV und Retroviren: Interessantes Gesamtbild des Zusammenspiels von Forschung, Klinik und Politik zum Thema AIDS und Retroviren
  • Roger Tsien (Dienstag): Designing Molecules and Nanoparticles to Help See and Treat Disease: Wow! So sollte ein gehoben allgemein verständlicher Vortrag sein! Interessante Grundlagen, beeindruckende Bilder, praktischer Nutzen, und direkte Einblicke, wie man seine Chancen auf eine erfolgreiche Karriere erhöhen kann (nicht nur, aber auch “Try to find projectts that give you some sensual pleasure or put your neuroses to constructive use”)
  • Oliver Smithies (Mittwoch): Chance, Opportunity and Planning in Science: Furiose Tour durch Jahrzehnte von Laborbüchern — eine tolle Mischung aus Molekularbiologie, Medizin, mit viel Aha-Effekt dazu, was es konkret heißt, gute und erfolgreiche Wissenschaft zu betreiben.