„Ohne Physik kann man die Welt - wissenschaft.de
Anzeige
Anzeige

Astronomie+Physik

„Ohne Physik kann man die Welt

„Ohne Physik kann man die Welt nicht richtig wahrnehmen“, sagt Nobelpreisträger Theodor W. Hänsch. Auf den folgenden 20 Seiten erhalten Sie das Rüstzeug, um die wichtigsten Theorien und Phänomene der modernen Physik zu verstehen. Und Sie erfahren, welche großen Trends die Wissenschaftler bewegen. 20 Fragen dazu finden Sie in einem Wissenstest auf S. 6 und 7.

Seite 42

„Quantenphysik ist gar nicht so schwierig“

Professor Theodor W. Hänsch im Interview über Physik und Öffentlichkeit.

Seite 45

Anzeige

TRend 1: Die Quanten werden greifbar

Für die Quantenmechanik gibt es erstaunliche Anwendungen.

Seite 48

TRend 2: Die Suche nach den Superstoffen

Forscher fahnden nach neuen Materialien – und designen exotische Werkstoffe mit besonderen Eigenschaften.

Seite 52

TRend 3: Der Blick ins Extreme

Physiker gehen bei ihren Experimenten bis an die Grenzen, wo sich ihnen eine Fülle erstaunlicher Erkenntnisse offenbart.

Seite 55

TRend 4: Der Siegeszug der Simulation

Computer sind für die Wissenschaft unverzichtbar geworden.

Seite 58

Fundament des Fortschritts

Physiker stellen sich gesellschaftlichen Herausforderungen.

„Quantenphysik ist gar nicht so schwierig“

bild der wissenschaft: „Mit Physik habe ich nichts am Hut“, kokettieren viele. Was entgegnen Sie in solchen Fällen?

Theodor Hänsch: Ich versuche, diese Einstellung zu korrigieren. Denn ohne Physik kann man unsere Welt nicht richtig wahrnehmen. Wer sich damit brüstet, von Physik keine Ahnung zu haben, dokumentiert, dass er die moderne Welt gar nicht verstehen will.

Beispielsweise was?

Zum Beispiel die Debatte um regenerative Energien. Wenn ich nicht verstanden habe, was Energie überhaupt ist und worin sie sich von der installierten Leistung unterscheidet, kann ich nur bedingt mitreden. Oder nehmen Sie den Begriff „Kraft“: In der Physik ist das etwas ganz anderes als etwa die Kraft eines poetischen Wortes.

Ihnen werden im privaten Bekanntenkreis sicher oft Fragen gestellt nach dem Motto „Theodor, kannst du mir mal die Physik erklären?“. Schütteln Sie die Antworten dann so aus dem Ärmel?

Das ist manchmal sehr schwer. Wie erkläre ich jemandem die Welt, der mit einfachsten physikalischen oder mathematischen Begriffen gar nichts anfangen kann? Wenn jemand nicht einmal weiß, was man unter ganzen Zahlen versteht – wo fängt man dann an mit der Erklärung? Aber wenn etwas Grundwissen da ist, dann sehe ich das Erklären als reizvolle Herausforderung.

Schüler und ehemalige Schüler geben in Befragungen dem Unterrichtsfach Physik oft schlechte Noten. Warum?

Möglicherweise ist dies das Resultat einer negativen Auslese der Lehrer. Naturwissenschaftler haben sehr viele berufliche Möglichkeiten. Wer trotzdem Lehrer wird, der mag sein Fach vielleicht gar nicht wirklich.

Im vergangenen Jahrzehnt gab es reichlich Initiativen, junge Menschen für Naturwissenschaften zu begeistern – inzwischen startet man damit sogar schon im Kindergarten. Kommt es dadurch zu einem Umschwung?

Das kann ich nicht beurteilen. Die jungen Absolventen eines Physikstudiums, die wir an unsere Institute bekommen, sind hervorragend. Um den wissenschaftlichen Nachwuchs mache ich mir keine Sorgen. Allerdings fände ich es gut, wenn auch unsere Abgeordneten im Parlament etwas mehr von Physik verstehen würden.

Wie viel Physik benötigt der Standort Deutschland, um global erfolgreich zu bleiben?

Dass sich unsere Wirtschaft von der Weltfinanzkrise so rasch erholt hat, hängt ursächlich mit der Qualität unserer Ingenieure und Naturwissenschaftler zusammen.

Braucht die Physik mehr Popularisierer aus den eigenen Reihen? Platt ausgedrückt: Braucht die Physik ihre Pop-Stars?

Sicher täte das der Physik gut. Andererseits sehe ich ein Problem: In der Gemeinschaft der Forscher, die sich auf ihre wissenschaftliche Problemstellung konzentrieren, wird man misstrauisch betrachtet, wenn man sich allzu offensichtlich als Popularisierer zeigt – das gilt mitunter sogar als halbseiden.

Immer noch?

Durchaus. Doch wenigstens bewegt sich etwas. Ein sehr erfolgreicher Popularisierer ist beispielsweise der Generaldirektor des Deutschen Museums, Wolfgang Heckl, der seit 2009 den neu geschaffenen Oskar-von-Miller-Lehrstuhl für Wissenschaftskommunikation an der TU München innehat. Natürlich kann er sich jetzt nicht mehr so intensiv mit neuer Physik beschäftigen wie in seiner Zeit als Nanophysiker.

Wenn sich ein Germanist mit der Quantenphysik beschäftigen will, was raten Sie ihm? Oder ist das schlicht unmöglich?

Die Quantenphysik ist gar nicht so schwierig, sie ist nur nicht anschaulich. Wer Quantenphysik durch mechanische Modelle anschaulich machen möchte, scheitert. Das funktioniert nicht. Das kann niemand – nicht einmal Physiker. Doch Anton Zeilinger, Quantenphysiker in Wien, hat gezeigt, dass es trotzdem gelingen kann, Quantenphysik zu popularisieren. Sein Buch „Einsteins Schleier: Die neue Welt der Quantenphysik“ ist auch etwas für Germanisten. Für Lehrer und Schüler gibt es ein schönes Bändchen „ Quantenmechanik verstehen“ von Herbert Pietschmann.

Was halten Sie von populistischen physikalischen Schlagwörtern wie Quantenteleportation oder Paralleluniversen?

Manchmal sind solche Schlagwörter peinlich, doch zumindest bringen sie die Physik ins Gespräch. Bei der Quantenteleportation handelt es sich um ein interessantes beobachtbares Phänomen, das allerdings gar nichts mit der Teleportation à la Raumschiff Enterprise zu tun hat. Andere Schlagwörter, zum Beispiel Paralleluniversen, beschreiben Spekulationen. Ich als Experimentalphysiker nehme nur Theorien ernst, die man durch Experimente überprüfen kann. Natürlich darf man auch spekulieren. Doch das ist dann nicht mehr als Science-Fiction.

Und Ihre Meinung über Quantencomputer?

Ich glaube nicht, dass wir jemals Quantencomputer sehen werden, die leistungsfähiger sind als herkömmliche Computer.

Was sind für Sie die größten physikalischen Fortschritte der letzten Jahrzehnte?

Für mich gehören die herausragenden Ergebnisse bei der ultrakalten Bose-Einstein-Kondensation unbedingt dazu. Dann sind es Experimente, die mein Lehrstuhlnachfolger an der Ludwig-Maximilians-Universität München und Direktor am Max-Planck-Institut für Quantenoptik in Garching, Immanuel Bloch, verfolgt. Seinem Team ist es gelungen, künstliche Kristalle zu erzeugen, in denen man quantenmechanische Effekte beobachten kann, die vielleicht auch in realen Festkörpern eine Rolle spielen – etwa in den Hochtemperatursupraleitern. In natürlichen Festkörpern konnte man diese Effekte bisher nicht kontrolliert untersuchen. Höchste Anerkennung zolle ich auch jenen, die es geschafft haben, ultrakurze Laser so zu konzipieren und zu konstruieren, dass man in deren Brennpunkt Bedingungen schafft, wie sie möglicherweise nahe am Urknall herrschten. Wir sind da bei einer Pulslänge in der Dimension von Attosekunden angelangt. Das heißt, die Laser sind so exakt gepulst, dass sie auch noch den Milliardstel Bruchteil einer Milliardstel Sekunde zuverlässig abbilden.

Und was kann man damit machen?

Beispielsweise können wir dadurch die Dynamik von Elektronen in Molekülen oder Atomen beobachten. Über die von uns entwickelte Frequenzkammtechnik können wir mit Lasern die Zeit so extrem präzise messen, dass sich die von Einstein vorausgesagte Gravitationsverschiebung nachweisen lässt – und das schon, wenn sich zwei Uhren nur durch zehn Zentimeter Höhendifferenz unterscheiden. Daneben setzen wir die Frequenzkammtechnik auch bei der europäischen Südsternwarte ein, um Spektrographen zu eichen. Das verbessert die Suche nach erdähnlichen Planeten bei weit entfernten Sternen.

Das hört sich sehr nach raffinierten Hightech-Apparaten an. Unterscheiden sich moderne Labore vor allem dadurch von denen Ihrer Doktorandenzeit?

Als ich angefangen habe, mussten wir noch viele unserer Materialien und Geräte selbst konstruieren – angefangen vom Blasen eines Glaskolbens bis hin zur Vakuumpumpe. Heute kann man vieles per Katalog bestellen. Doch die echten Fortschritte finden immer noch in den Köpfen statt. Da kann eine gute Laborausstattung zwar helfen, sie kann aber auch ablenken. Beispielsweise verbrauchen wir heute oft viel zu viel Zeit, um Bedienungsanleitungen zu lesen und zu verstehen.

Geht man heute anders an physikalische Grundlagenforschung heran als früher?

Generell gesagt, haben wir heute viel mehr Hilfsmittel. Allein die ständige elektronische Verfügbarkeit von Literatur ist unglaublich: In Windeseile kann ich die Weltliteratur auf ein spezielles physikalisches Problem durchsuchen. Auch das mühsame und zeitfressende Kommunizieren per Brief fällt weg. Ich schreibe eine E-Mail und habe vielleicht schon im nächsten Moment die erwünschte Antwort. Auf diese Weise kann man heute in virtuellen Teams zusammenarbeiten – also ein Problem mit Kollegen diskutieren und vielleicht lösen, die sich anderswo auf dem Globus aufhalten. Große Kollaborationen wie beim europäischen Kernforschungszentrum CERN bestehen mitunter aus weltweiten Teams von mehreren Tausend Wissenschaftlern.

Stehen Sie weiter an der vordersten Front der Forschung?

Nach meinem Nobelpreis hat die Zahl der Einladungen zu Vor- trägen, Panels, Preisgremien und Interviews stark zugenommen. Das kostet Zeit. Andererseits hilft mir meine neue Sichtbarkeit, sehr gute Mitarbeiter zu rekrutieren. Und: Hätte ich den Nobelpreis nicht bekommen, dann wäre ich längst pensioniert und könnte in Deutschland gar nicht mehr wissenschaftlich arbeiten.

Woran arbeiten Sie konkret?

Soeben wurde mir vom Europäischen Forschungsrat ERC ein millionenschwerer „Advanced Grant“ zuerkannt. Damit wollen wir in den kommenden fünf Jahren neuartige Anwendungen der Frequenzkammtechnik in der Molekülspektroskopie erkunden. Ein Thema, das uns seit 40 Jahren beschäftigt und jetzt wieder hochaktuell geworden ist, ist die Laserspektroskopie am Wasserstoff-Atom – einem der elementarsten Systeme, das die Quantenmechanik kennt. Da wir nun sehr genau messen können, haben wir untersucht, ob wir einen Widerspruch zur Schrödinger-Gleichung finden können oder, genauer gesagt, zur Quantenelektrodynamik, für deren Formulierung Richard Feynman, Julian S. Schwinger und Shin’chiro Tomonaga im Jahr 1965 den Nobelpreis erhielten. Nur wenn wir da etwas Neues registrieren, kommen wir in der Quantenphysik weiter. Und siehe da, es tat sich etwas: Randolf Pohl aus unserer Abteilung beim Max-Planck-Institut für Quantenoptik gelang es mit einem internationalen Forscherteam, die Größe des Protons zehn Mal so genau wie bisher experimentell zu bestimmen. Die Sensation: Die Größe wich stark vom erwarteten Wert ab. Das Proton wäre damit fünf Prozent kleiner als bisher angenommen. Diese Erkenntnis war dem Wissenschaftsjournal „Nature“ immerhin eine Titelseite im August 2010 wert. Natürlich könnten unsere Messungen oder Berechnungen fehlerbehaftet sein, aber inzwischen haben sich viele Physiker damit beschäftigt – und keiner hat einen Fehler gefunden. Es könnte sein, dass wir dadurch einem Schwachpunkt der bisherigen Quantentheorie auf die Spur gekommen sind.

Bewegt Sie denn auch die Suche nach der imaginären Weltformel der Physik – einer einfachen Formel, die erklärt, wie alles mit allem zusammenhängt?

Ich selbst bin nicht auf der Suche danach. Es würde mich natürlich freuen, wenn es gelingen sollte, eine solche Formel zu finden – wobei die wohl nicht einfach wäre. Die elektromagnetische Kraft, die schwache und starke Wechselwirkung sowie die Gravitation widerspruchslos in einer Formel zu vereinen, ist eine gewaltige Herausforderung, an der bisher alle Physiker gescheitert sind. ■

Das Gespräch führten Ralf Butscher und Wolfgang Hess Theodor Wolfgang Hänsch ist als fast 70-Jähriger noch voll in die Grundlagenforschung integriert. Das verdankt er dem Nobelpreis für Physik, der ihm 2005 überreicht wurde. Eine von der Carl-Friedrich-von-Siemens-Stiftung anschließend ins Leben gerufene Stiftungsprofessur an der Ludwig-Maximilians-Universität München (LMU) ermöglicht dem in Heidelberg Geborenen eine Festanstellung jenseits des Beamtenrechts. Hänsch, der nach seiner Promotion 16 Jahre an der Stanford University am Institut des Laser-Pioniers Arthur Schawlow gearbeitet hatte, kam 1986 nach Deutschland zurück. Dort wurde er zeitgleich auf den Lehrstuhl für Experimentalphysik und Laserspektroskopie an der LMU und als Direktor des Max-Planck-Instituts für Quantenoptik berufen. Seine Weiterarbeit am Max-Planck-Institut wird durch die Max-Planck-Förderstiftung unterstützt.

So fit sind Sie in Physik!

1. Wofür erhielt Albert Einstein 1922 den Nobelpreis?

a Für die Erklärung des Photoeffekts

b Für die Entwicklung der Relativitätstheorie c Für die Entdeckung des Äquivalenzprinzips

2. Was beschreibt die Schrödinger-Gleichung?

a Den radioaktiven Zerfall von Atomkernen b Die zeitliche Entwicklung eines Quantensystems c Die Absorption und Emission von Photonen

3. Was ist eine Voraussetzung dafür, Laserlicht zu erzeugen?

a Eine hohe kristalline Dichte b Eine Mindestzahl von Atomen c Eine Besetzungsinversion

4. Was sind Gluonen?

a Teilchen, die die Kräfte zwischen Quarks vermitteln b Die letzten noch nicht entdeckten Elementarteilchen des Standardmodells

c Die einzigen bekannten Partikel, die nicht zerfallen

5. Was bestimmt der Spin eines Elektrons?

a Das Vorzeichen der elektrischen Ladung des Elektrons

b Die Orientierung des Elektrons in einem Magnetfeld

c Ob sich das Elektron durch Licht anregen lässt

6. Welche Bedeutung hat die Temperatur von minus 138 Grad Celsius?

a Es ist die bislang höchste bekannte Sprungtemperatur eines Supraleiters

b Bei dieser Temperatur geht Wasser in den superkritischen Zustand über

c Es ist die mittlere Temperatur im Universum

7. Was ist ein Atomlaser?

a Ein Gerät, das Laserlicht mithilfe von Kernspaltung generiert

b Ein Laser, der lediglich aus einem einzigen Atom besteht

c Die Quelle eines kohärenten Strahls aus Atomen

8. Ein Up-Quark und zwei Down-Quarks bilden ein anderes Partikel. Welches?

a Ein Neutron

b Ein Proton

c Ein Positron

9. Womit experimentierte Alain Aspect Anfang der 1980er-Jahre?

a Mit Anti-Wasserstoff-Atomen

b Mit verschränkten Photonen

c Mit Gravitationswellen

10. Was lässt sich mithilfe von Metamaterialien realisieren?

a Tarnkappen

b Quantencomputer

c Röntgenlaser

11. Welche Aufgabe erfüllt das hypothetische Higgs-Teilchen?

a Es bricht die Symmetrie zwischen Materie und Antimaterie

b Es schließt eine Lücke in der Familie der Nukleonen c Es verleiht den anderen Teilchen ihre Masse

12. Welche physikalische Größe hat den Wert (1/137,036)?

a Die Feinstrukturkonstante

b Das Plancksche Wirkungsquantum

c Das Größenverhältnis zwischen Elektron und Proton

13. Wie viele Arten von Neutrinos existieren?

a Eine

b Zwei

c Drei

14. Wofür wurde der Physik-Nobelpreis 2010 verliehen?

a Für die Erfindung des CCD-Sensors

b Für grundlegende Experimente zu dem Material Graphen

c Für den experimentellen Beweis, dass Neutrino und Anti-Neutrino identisch sind

15. Welche Besonderheit hat das Top-Quark?

a Es ist das einzige Quark ohne Farbladung

b Es ist das schwerste aller Quarks

c Es ist das erste Quark, das im Experiment beobachtet wurde

16. Wo befindet sich das Fermilab?

a In der Wüste von New Mexico

b In Genf

c In der Nähe von Chicago

17. Wonach sucht KATRIN?

a Nach supersymmetrischen Teilchen

b Nach der Masse der Neutrinos

c Nach einer mysteriösen Abstoßungskraft Schwarzer Löcher

18. Welche Theorie gilt als Kandidat für eine Weltformel?

a Die Allgemeine Relativitätstheorie

b Die Stringtheorie

c Die Quantenelektrodynamik

19. Für welche Partikel wird mitunter das Wort „ Geisterteilchen“ benutzt?

a Für Tachyonen

b Für Bosonen

c Für Neutrinos

20. Im Jahr 2004 fand in Wien ein physikalisches Experiment statt – was geschah?

a Physiker übertrugen mithilfe der Quantenkryptographie verschlüsselte Daten

b Physiker wiesen erstmals nach, dass Gravitonen aus dem Erdinneren den Globus beben lassen

c Physiker schafften es, durch geschicktes Überlagern von Laserstrahlen verschiedene Gegenstände unsichtbar zu machen

Die richtigen Antworten finden Sie in unserer Titelgeschichte „ Keine Angst vor Physik“ ab Seite 40 und in der Auflösung auf Seite 59.

Trend 4: Der Siegeszug der Simulation

Die Menschheit war immer dann besonders innovativ, wenn es um Waffen und Krieg ging. Beispiel Kernspaltung: Sie hatte ihren ersten Einsatz in den Atombomben. Im Gefolge der amerikanischen Bombenentwicklung im „Manhattan-Projekt“ bahnte sich eine Revolution an, die die Physik aufs Tiefste verändern sollte: Erstmals basierte ein physikalischer Fortschritt nicht nur auf Experimenten und Kalkulationen mit Papier und Bleistift, sondern auf Berechnungen am Computer. Richtig in Fahrt kam dieser Trend 1952 mit dem Bau des aus Tausenden Elektronenröhren bestehenden Riesenrechners MANIAC am US-Atombombenlabor Los Alamos. Seither ist der Rechner eine neue Metapher für die Gesetze der Natur.

Dass Computer in der Physik so erfolgreich sind, hat mathematische Gründe. Nur wenige physikalische Probleme lassen sich analytisch lösen, mit einem eindeutig zu beweisenden Ergebnis. Das Pendel und die Keplerschen Planetengesetze gehören dazu. Fast alle anderen für Physiker interessanten Fragestellungen lassen sich indes nur mithilfe von Näherungen knacken. Darin sind Computer unschlagbar. Lässt man sie lange genug rechnen, kommen sie sehr nahe an die korrekte Lösung. Rechner sind damit ein ideales Werkzeug, um Theorien und Experimente zu überprüfen, besonders wenn es zu Diskrepanzen kommt – was in der Physik eher die Regel ist. „Experiment, Simulation und Theorie sind heute gleichberechtigte Ecken eines Dreiecks“, sagt Johannes Roth, der an der Universität Stuttgart Physik auf dem Computer lehrt. Er warnt allerdings: „Der Computer liefert kein Verständnis, sondern nur Zahlen.“ Auch Rechenergebnisse sind fehlerbehaftet und bedürfen einer sorgfältigen Interpretation.

Reise ins Innere der Erde

Computerphysik ist ein weites Feld. Man unterscheidet dabei zwischen Numerik und Simulation, wobei die Grenzen fließend sind. Bei der Numerik geht es darum, Messergebnisse aus echten Experimenten in statistischen Verfahren so zu verknüpfen, dass eine sinnvolle Aussage herauskommt. Simulationen dagegen wenden bekannte physikalische Theorien auf ein vorgegebenes Problem an – ein virtuelles Experiment. Simulationen sind immer dann ohne Alternative, wenn es keine Möglichkeit zur Messung im Experiment gibt. So lässt sich das chaotische Verhalten der Planeten im Sonnensystem über Jahrmillionen gut berechnen, aber logischerweise nicht messen. An andere unzugängliche Orte, etwa zum Mittelpunkt der Erde und in das Innere von Atomkernen, gelangen Physiker nur im Computer.

Die physikalischen Theorien, die solchen virtuellen Experimenten zugrunde liegen, sind meist ziemlich alt. So nutzten die Forscher in den US-Labors schon vor 60 Jahren die Monte-Carlo-Methode, bei der Gleichungen mit Zufallszahlen gefüttert werden – eine Methode, die noch heute zum Handwerkszeug jedes Physikers gehört. Kaum jünger sind Berechnungen zur Moleküldynamik: 1956 kalkulierten US-Forscher das Verhalten der Atome in einem Feststoff, indem sie diese als harte Kugeln annahmen. Die erste Berechnung von Molekülen in einem Festkörper stammt von 1959. Seither haben sich die Fragestellungen an den Computer kaum verändert. Wie verhalten sich Atome und Moleküle, zum Beispiel unter Druck oder wenn sie als Gas um eine Flugzeugtragfläche fließen? „Oft versteht man das Verhalten eines Stoffes erst, wenn man sich die atomistischen Details anschaut“, sagt Roth. Was sich allerdings geändert hat, ist die Zahl der Partikel, die man simulieren kann. Der Weltrekord für eine Simulation der Moleküldynamik auf einem Supercomputer liegt bei einer Billion Atomen. Doch trotz dieser beeindruckenden Zahl: Das ist nichts im Vergleich zu den rund 100 Milliarden Billionen Atomen, die allein in einem Gramm Materie stecken.

Megapower für eine Millisekunde

Johannes Roth betont, dass es nicht darum geht, die Zahl der Teilchen in einer Simulation immer höher zu schrauben. Was die Physiker interessiert, ist die zeitliche Auflösung. Die Bewegungen in atomaren Bereichen spielen sich im Bereich von Femtosekunden (millionstel milliardstel Sekunden) ab. Mit den heutigen Rechnern lassen sich etwa eine Milliarde Schritte berechnen, das Verhalten eines Stoffs lässt sich also nur für einige Mikrosekunden simulieren. Johannes Roth: „Die Beschleunigung der Supercomputer hat leider nur eine Vervielfachung der Atome gebracht, nicht aber der Betrachtungsdauer.“ Doch auch da wissen sich die Physiker zu helfen: Sie schalten mehrere Simulationsmodelle hintereinander, vereinfachen sie Zug um Zug und dringen so in größere Raum- und Zeitskalen vor. Doch der massive Einsatz von Simulationsmethoden auf Supercomputern ist auch eine Gefahr. Denn die Physiker stellen nicht immer die Fragen, die für die Wissenschaft interessant sind, sondern solche, die sich auf den Rechnern beantworten lassen. Die Entwicklung der Computer beeinflusst also die Entwicklung der Physik. Roth glaubt, dass sich die Fragestellungen weiter in Richtung Nanoexperimente verschieben werden, die eine überschaubare Zahl von Atomen mit feiner Zeitauflösung simulieren können.

Wann wird es den ersten Nobelpreis für Physik auf dem Computer geben? Bereits 1998 erhielt der österreichisch-amerikanische Physiker Walter Kohn den Nobelpreis für Chemie für seine Arbeiten am Computer. Kohn hatte die Dichtefunktionaltheorie entwickelt, die Berechnungen der Elektronendichte in Atomen und Molekülen stark vereinfacht und so Rechenzeit spart. Auf künftige Physiker-Generationen wartet viel Arbeit: Rechenmethoden müssen vereinfacht, ihr Zusammenspiel muss verbessert werden. Der zweifelhafte Lohn ist heute wie vor 60 Jahren, dass mit jeder Antwort neue Fragen auftauchen. ■

Bernd Müller, Autor von Trend 1 bis 4, hat Physik studiert. Der ehemalige bdw-Redakteur lebt als freier Journalist in Bonn.

von Bernd Müller

Trend 3: Der Blick ins Extreme

Die Geschichte der Physik in den letzten 50 Jahren liest sich wie eine Liste der Rekorde: minimale und maximale Temperaturen, Drücke, Zeitspannen. Dafür gibt es keine Medaillen. Doch an den Grenzen der Messbarkeit warten häufig Erkenntnisse, die Rückschlüsse etwa über den Aufbau von Materie oder physikalische Grundgesetze erlauben. Grenzen sind für Physiker dazu da, überwunden zu werden oder sie weiter hinauszuschieben. Der Rekord selbst, die bloße Zahl, ist für die Medien interessant. Doch Physiker sind erst zufrieden, wenn sie auch eine neue physikalische Erkenntnis verkünden können.

Die Rekordjagd war meist getrieben von Experimenten, die bestätigen sollten, was die Physiker schon vermutet hatten. Beispiel tiefe Temperaturen: Mikrokelvin, Nanokelvin und zuletzt sogar Pikokelvin – millionstel, milliardstel oder billionstel Grad über dem Absoluten Temperaturnullpunkt von minus 273,15 Grad Celsius. In den 1980er- und 1990er-Jahren lange mit im Rennen war Frank Pobell, der an der Universität Bayreuth per Magnetkühlung Gase auf 1,5 Mikrokelvin abkühlte. Das Ziel des Wettlaufs war, die seltsamen Eigenschaften von Materie bei tiefen Temperaturen zu ergründen. So beschäftigte sich Pobell mit superfluidem Helium, das keine innere Reibung besitzt. Spekuliert darüber hatte man schon vor über 70 Jahren.

Besonders exotisch ist eine Form der Materie aus quasi miteinander verschmolzenen Atomen: das Bose-Einstein-Kondensat, das Albert Einstein und der Inder Satyendraneth Bose 1924 vorhergesagt hatten. 1995 war es so weit: US-Forscher erzeugten erstmals die Quantensuppe bei einer Temperatur von 170 milliardstel Grad über dem Absoluten Nullpunkt. Das gelang nur, weil die US-Physiker Steven Chu (heute US-Energieminister) und William Phillips eine Kühlung entwickelt hatten, bei der Gas-Atome sanft mit Laserlicht abgebremst werden. Das legte den Grundstein für eine völlig neue Physik bei extrem tiefen Temperaturen – und ermöglichte etwa den Bau des ersten Atomlasers durch den deutschen Physiker Wolfgang Ketterle. Peter Strehlow, Leiter der Arbeitsgruppe für ultratiefe Temperaturen bei der Physikalisch-Technischen Bundesanstalt (PTB) in Braunschweig, ist überzeugt, dass der Wettlauf hart am Absoluten Nullpunkt weitergehen wird: „Zwischen einem millionstel und einem tausendstel Kelvin spielen sich genauso viele physikalische Phänomene ab wie zwischen einem und tausend Kelvin.“

520 Millionen Grad Hitze

Die hochpräzisen Apparaturen der Tieftemperaturphysiker passen in ein kleines Labor. Am anderen Ende der Temperaturskala geht es raumgreifender zu – etwa im japanischen Fusionsreaktor JT60, der 1996 heißes Plasma auf 520 Millionen Grad Celsius erhitzte. Oder in riesigen Beschleunigern, die Atomkerne aufeinander schießen, um so die Bedingungen am Urknall nachzustellen. Den Teilchenphysikern geht es darum, möglichst viel Energie auf einen Punkt zu konzentrieren, damit daraus neue Teilchen entstehen, die das sogenannte Standardmodell der Teilchenphysik komplettieren. Das gelang bisher mit beeindruckender Vorhersagbarkeit. So fanden Forscher am Teilchenlabor CERN in immer größeren Beschleunigern die W- und Z-Bosonen – die Vermittler der schwachen Wechselwirkung, einer der vier Grundkräfte der Natur. Forschern am Fermilab bei Chicago ging 1995 das letzte und schwerste der sechs Quarks ins Netz, das Top-Quark (Fragen 15 und 16).

Nächster und wohl letzter Meilenstein soll das Higgs-Teilchen sein, das im Standardmodell erklärt, wie Materie zu ihrer Masse kommt (Frage 11). Wenn der neue LHC-Beschleuniger am CERN seine Kinderkrankheiten hinter sich hat, sollte sich das 1964 postulierte Teilchen endlich aufspüren lassen. Falls nicht, würde das ein gewaltiges Loch ins Standardmodell reißen.

Das Zauberwort heisst Präzision

Spektakuläre Temperaturrekorde sind künftig nicht mehr zu erwarten. Nach unten setzt der Absolute Nullpunkt eine unüberwindbare Barriere, nach oben ist die technische Machbarkeit das Limit. Der nächste Forschungsfusionsreaktor ITER wird sein Plasma „nur“ auf 100 Millionen Grad heizen. Die Herausforderung liegt im Aufrechterhalten des Fusionsprozesses. Statt am „Höher, Schneller, Weiter“ sind Physiker sowieso eher am „Genauer“ interessiert – an der Präzision ihrer Messungen. Denn davon hängt die Kenntnis vieler Naturkonstanten ab und damit die Vorhersagekraft vieler physikalischer Theorien. Zwei deutsche Physiker – beide mit dem Nobelpreis dekoriert – haben hier Bahnbrechendes geleistet. Der eine ist Klaus von Klitzing: Er entdeckte 1980 den Quanten-Hall-Effekt, der besagt, dass bei tiefen Temperaturen und hohen Magnetfeldern der altbekannte Hall-Effekt – die Ablenkung geladener Teilchen in einem Magnetfeld – nicht linear, sondern in Stufen mit dem Magnetfeld wächst. Diese Messung ist so exakt, dass die Klitzing-Konstante heute als Normdefinition des elektrischen Widerstands dient.

Der andere Pionier ist Theodor Hänsch, der in den 1990er-Jahren mit dem Frequenzkamm eine Art zeitliches Lineal entwickelt hat. Die extreme Genauigkeit solcher Experimente könnte der Zunft noch Kopfzerbrechen bereiten. Die Messungen sind so präzise, dass man damit sogar Naturkonstanten kontrollieren kann – ein interessantes Forschungsfeld der Zukunft. Denn so konstant sind mache Naturkonstanten vielleicht gar nicht. Einige Theoretiker spekulieren, dass sich die Feinstrukturkonstante, die bei Elektrizität und Magnetismus eine wesentliche Rolle spielt, um ein millionstel Milliardstel pro Jahr verändert.

Bei manchen physikalischen Experimenten ist gar nicht klar, ob sich überhaupt etwas messen lässt. Zum Beispiel beim neutrinolosen Doppelbeta-Zerfall – dem gleichzeitigen radioaktiven Zerfall zweier Protonen oder Neutronen in einem Atomkern: Tausend Millionen Millionen Mal das Alter des Universums – so lange dauert es, bis laut Theorie die Hälfte einer Stoffmenge auf diese Weise zerfallen ist. Das tut sie aber nur, wenn Neutrinos eine Masse haben, und das ist immer noch nicht bewiesen. Physiker wollen den extrem seltenen Zerfallsereignissen auflauern – mithilfe von GERDA (Germanium Detector Array): einem sechs Meter hohen Tank unter dem Bergmassiv des Gran Sasso in den italienischen Apenninen. Darin hängen einige Kilogramm reines Germanium, das gleichzeitig als Probe und Detektor dient. Pro Kilogramm rechnen die Experimentatoren mit weniger als einem Zerfall pro Jahr. Nicht nur der Drang der Physiker, Neuland zu entdecken, ist also grenzenlos, sondern auch ihre Geduld und Hartnäckigkeit. ■

von Bernd Müller

Trend 2: Die Suche nach den Superstoffen

Perfekt zweidimensionale Strukturen aus Kohlenstoff galten als unmöglich, weil sie thermodynamisch instabil wären. Jahrzehntelang galt dieses Dogma, wonach sich aus Kohlenstoff nur dreidimensionale Strukturen wie Diamant oder Graphit herstellen lassen. Doch die Geschichte der Physik lehrt, dass Umbrüche gerade dort passieren, wo man sie am wenigsten erwartet. So meldeten die beiden russischstämmigen Physiker Konstantin Novoselov und Andre Geim 2004, dass ihnen die Herstellung eines einlagigen Kohlenstoff-Geflechts gelungen sei – noch dazu mit einem äußerst simplen Verfahren: durch Abziehen von Graphit-Schichten mit einem Tesafilm. 2010 wurden sie dafür mit dem Nobelpreis belohnt (Frage 14).

Neuer Baustoff für die Elektronik

Warum Graphen stabil ist, wurde noch immer nicht ganz geklärt. Fest steht, dass sich enorme Hoffnungen an dieses Material knüpfen. So könnte Graphen das Silizium als Basismaterial in der Mikroelektronik ablösen. Im vergangenen Jahr hat IBM einen Transistor aus Graphen gebaut, der mit 100 Gigahertz arbeiten kann, also 100 Milliarden Mal in der Sekunde schaltet. Die Mikrochips in neuen Computern werden mit rund drei Gigahertz getaktet, enthalten allerdings Milliarden Transistoren. Der Weg zur Graphen-Elektronik ist also noch weit und steinig. Vielleicht wird das Ziel auch nie erreicht – wie bei anderen Kohlenstoff-Molekülen, die seit den 1980er-Jahren entdeckt wurden. Auch die Buckyballs oder Fullerene aus 60 fußballförmig angeordneten Kohlenstoff-Atomen waren 1985 eine Sensation und weckten große Hoffnungen für technische Anwendungen. Immer neue Varianten wurden gefunden, darunter die Kohlenstoff-Nanoröhrchen, die im Prinzip nichts anderes sind als aufgerollte Graphen-Schichten. Sie könnten ebenfalls als Transistoren oder elektrische Leiter zum Einsatz kommen, auch für Wasserstoffspeicher oder Flachdisplays scheinen sie geeignet. Heute werden jährlich Hunderte Tonnen Nanoröhrchen hergestellt, allerdings vor allem zur Verstärkung von anderen Materialien – beispielsweise um Tennisschlägern bessere mechanische Eigenschaften zu verleihen. Auch wenn Massenanwendungen auf sich warten lassen, hat die neue Kohlenstoff-Physik die Welt der Materialforschung gehörig durcheinandergewirbelt. Die Erforschung von Materialeigenschaften hat Tradition in der Physik, im Studium vertreten durch das Fach Festkörperphysik. Ziel ist es, die Eigenschaften von Materie nach allen Regeln der Theorie und experimentellen Kunst kennenzulernen. Doch diese Herangehensweise hat sich gewandelt. Heute geht es nicht mehr nur um Festkörper, sondern die Physiker interessieren sich auch immer stärker für „ weiche“ Materialien wie Polymere oder sogar biologische Zellen. Und sie wollen nicht nur die Eigenschaften von Metallen oder Halbleitern studieren, sondern zudem quasi auf dem Reißbrett Materie mit neuen Eigenschaften designen und sie im Labor erschaffen.

Atome unter der Linse

Ein Wendepunkt war 1981 die Erfindung des Rastertunnelmikroskops durch Gerd Binnig und Heinrich Rohrer, das erstmals Atome sichtbar machen konnte. Seither haben Physiker ein ganzes Arsenal von Methoden entwickelt, um Materialien etwa auf mechanische und magnetische Eigenschaften zu untersuchen oder gezielt zu manipulieren. Utopien von Nanomaschinen, die sich selbst aus einzelnen Atomen aufbauen und Produkte bis hin zu Nahrungsmitteln maßschneidern, machten die Runde – sind aber bis heute Utopien geblieben.

Realität sind Designermaterialien mit Eigenschaften, die man noch vor einem Vierteljahrhundert für unmöglich hielt. Ein faszinierendes neues Forschungsfeld sind Metamaterialien: Festkörper aus periodischen Strukturen, die kleiner sind als die Wellenlänge des Lichts. Dieses erzeugt darin Magnetfelder, die wiederum das Licht beeinflussen. „Ich habe in den 1980er-Jahren an der Universität noch gelernt, dass das unmöglich ist“, erinnert sich Martin Wegener. Heute ist er Professor am Karlsruher Institut für Technologie (KIT) und stellt Metamaterialien her, die das Unmögliche möglich machen.

So haben Metamaterialien negative Brechungszahlen: Licht wird an Grenzflächen in die „falsche“ Richtung gebrochen. Das erlaubt völlig neue Linsen, bei denen das alte Dogma nicht mehr gilt, wonach die Auflösung eines Mikroskops nicht besser sein kann als die halbe Wellenlänge des Lichts. Metamaterialien können auch perfekte Absorber sein: Sie lassen kein Licht durch, reflektieren aber auch keines. Die spektakulärste Anwendung ist eine Tarnkappe (Frage 10): Das Metamaterial variiert die Lichtgeschwindigkeit so, dass die Lichtstrahlen gezwungen sind, außen herum zu laufen – das Material wird unsichtbar. Wegeners Team hat 2010 eine Tarnkappe gebaut, die ein haarfeines dreidimensionales Objekt verschwinden lässt. Doch dass auf diese Weise bald Menschen unsichtbar werden oder Autos wie im James-Bond-Film „Stirb an einem anderen Tag“, ist unwahrscheinlich.

Lichtgeschwindigkeit: Null

Etwas älter, doch nicht minder interessant, sind photonische Kristalle. Sie tun mit Licht das, was normale Halbleiter aus Silizium mit elektrischen Ladungsträgern machen: Sie schalten und leiten es. Die Physiker können mit den Kristallen die Geschwindigkeit des Lichts auf null herunterregeln, Licht also quasi speichern oder um die Ecke knicken. Die Industrie arbeitet an photonischen Kristallen für leistungsfähigere Lichtkoppler zur Datenübertragung. Und es gibt bereits photonische Kristalle, die als Mikrostrukturen auf Leuchtdioden (LED) aufgebracht werden, um deren Brechungszahl zu senken. Sie holen so deutlich mehr Licht aus der LED heraus.

Ein weiterer Trend der letzten Jahrzehnte ist das allmähliche Aufweichen der Grenzen zwischen der Physik einerseits und der Chemie und Biologie andererseits. Viele neue Anwendungsfelder liegen auf der Grenze zwischen den Disziplinen. „Das macht den besonderen Reiz aus“, findet Thomas Thurn-Albrecht, Professor für Polymerphysik an der Universität Halle-Wittenberg. Ein Beispiel dafür ist die organische Elektronik: Leuchtdioden, Solarzellen oder Computerchips sollen künftig aus Kunststoffen billig und in großen Flächen hergestellt werden und sich leicht recyceln lassen.

Bereits Alltag sind Komposit-Materialien, Mixturen von Polymeren und anorganischen Stoffen – Autoreifen sind eine der bekanntesten Anwendungen. Auch hier geht der Trend zu Nanoteilchen. Vielversprechend für die Verstärkung von weichen Materialien sind Kohlenstoff-Nanoröhrchen – gewissermaßen als Brücke zwischen der organischen und anorganischen Welt. Immer tiefer dringen Physiker auch in die Biophysik ein, mit Untersuchungsmethoden wie neuartigen optischen Experimenten, Rasterkraftmikroskopen oder Synchrotronstrahlung. Extrem intensive Röntgenstrahlung, wie sie etwa der künftige Hamburger Mega-Laser XFEL erzeugen wird, soll schnelle biologische Vorgänge auf atomarer Skala sichtbar machen. Physiker werden auf diese Weise eines Tages direkt beobachten können, wie Biomoleküle funktionieren oder Zellen zu ihren Eigenschaften kommen. Die große Hoffnung ist, dass diese physikalischen Erkenntnisse zu neuen medizinischen Therapien führen. ■

von Bernd Müller

Trend 1: Die Quanten werden greifbar

„Die Quanten sind doch eine hoffnungslose Schweinerei!“ Das schrieb Max Born ironisch in einem Brief an Albert Einstein. Das Fernduell der beiden großen Physiker – mit Einstein in der Rolle des Zweiflers an der Theorie des Allerkleinsten – wirkt bis heute nach. Mit Gegnern haben die Quantenphysiker zwar nicht mehr zu kämpfen, dazu ist die Theorie zu gut bestätigt, doch immer noch mit Unverständnis. Denn nichts widersetzt sich dem gesunden Menschenverstand so sehr wie die Welt des Allerkleinsten. Das kann vielleicht erklären, warum diese Disziplin einen so langen Anlauf brauchte, um technische Anwendungen hervorzubringen. Die Jahrzehnte seit den „Goldenen 1920ern“, in denen Erwin Schrödinger und Werner Heisenberg das quantenphysikalische Theoriegebäude komplettierten, verbrachten die Protagonisten vor allem mit philosophischen Deutungsversuchen und Gedankenexperimenten. Sie wollten die skurrilen Eigenschaften der Quanten austricksen. Doch die Attacken waren stets erfolglos. Frieden in die Diskussion brachten insbesondere die Experimente des Franzosen Alain Aspect Anfang der 1980er-Jahre. Aspect wies an verschränkten Photonen nach, dass es keine verborgenen Regeln gibt, die den Quanten mitteilen, wie sie sich zu verhalten haben (Frage 9). Einsteins trotzige Behauptung „Gott würfelt nicht“ war damit widerlegt. Wichtige Impulse verdankt die Quantenphysik Anton Zeilinger, Leiter des Instituts für Quantenoptik und Quanteninformation der Universität Wien. Wie sein Fachkollege Alain Aspect experimentiert Zeilinger mit verschränkten Photonen. Die Lichtteilchen, die in einer Einzelphotonen-Quelle erzeugt werden, sind auf seltsame Weise miteinander verbunden. Und: Erst wenn ein Photon gemessen wird, legt es seine Eigenschaften fest – und mit ihm auch sein Zwillingsphoton. Das geschieht über beliebige Entfernungen ohne Informationsaustausch. Dem Wiener Team gelang es 1997 mithilfe der quantenmechanischen Verschränkung, eine Eigenschaft von einem Photon zum anderen zu übertragen – was Zeilinger den Spitznamen „Mr. Beam“ einbrachte. Denn der Vorgang, den Physiker als Teleportation bezeichnen, erinnert an das Beamen in den Startrek-Filmen. Die Fähigkeit Zeilingers, seine Ergebnisse auf praktische Probleme anzuwenden und öffentlichkeitswirksam zu präsentieren, haben der Quantenphysik neue Perspektiven eröffnet.

transfer mit Quanten-Schutz

Eine interessante Anwendung von verschränkten Photonen ist die Quantenkryptographie. Die Verschränkung lässt sich nutzen, um unerlaubten Lauschern in optischen Kommunikationsverbindungen auf die Schliche zu kommen. Zeilingers Forschergruppe hat so 2004 eine quantenphysikalisch geschützte Banküberweisung vom Wiener Rathaus an die Bank Austria geschickt (Frage 20). Mittlerweile kann man Geräte in PC-Größe kaufen, die derart verschlüsselte Daten über rund 100 Kilometer Distanz hinweg austauschen.

Überhaupt gab es in den letzten Jahren etliche Erfolge beim Versuch, das akademische Interesse an der Quantenphysik in technische Anwendbarkeit umzumünzen. So endet mit dem Trend zur Miniaturisierung von elektronischen und optischen Bauelementen irgendwann die Zuständigkeit der klassischen makroskopischen Physik, und die Quantenphysik übernimmt die Deutungshoheit. Die Mikroelektronik, etwa in Computerchips, kratzt bereits an der Grenze, wo an Schaltvorgängen so wenige Ladungsträger beteiligt sind, dass sich die Quanteneigenschaften bemerkbar machen. Beispiel Telekommunikation: Um Daten – mit Billionen Bits pro Sekunde – noch schneller über Glasfaserkabel zu versenden, bedarf es Lichtquellen, die kontrolliert einzelne Photonen aussenden. Das Center for Optoelectronics and Photonics Paderborn, kurz CeOPP, arbeitet an solchen Quantenemittern. Das Team von CeOPP-Leiter Artur Zrenner hat ein künstliches Atom gebaut, das sich wie ein echtes Atom verhält, aber aus einer 10 bis 20 Nanometer großen Insel von Atomen des Halbleiters Indium-Galliumarsenid besteht. Wird das künstliche Atom per Laser angeregt, sendet es immer nur ein einzelnes Photon aus. Bettet man die Insel in eine Diode ein, wird daraus die kleinste Solarzelle der Welt. Beschießt man sie mit ultrakurzen Laserpulsen, fließt ein Strom, der nur aus einem Elektron besteht. Das wäre ideal für extrem schnelle, kleine und energiesparende Mikroprozessoren.

Q-Bits als Rechen-Turbo

Künstliche Atome könnten eines Tages zum Quantencomputer führen. Jede Insel wäre darin ein Quantenbit, die optische Entsprechung eines elektrischen Bits in der heutigen Siliziumelektronik. Doch in der Quantenwelt könnten Q-Bits nicht nur die Werte „0″ oder „1″ annehmen, sondern beliebige Zwischenzustände, was das Rechentempo enorm steigern würde. „Doch Q-Bits sind nicht skalierbar, denn dadurch würden die Quanteneigenschaften verloren gehen“, sagt Artur Zrenner. Der Münchner Nobelpreisträger Theodor Hänsch glaubt daher nicht, dass Quantencomputer herkömmliche Rechner an Leistungsfähigkeit überflügeln werden. Auf der anderen Seite hat Hänsch selbst wichtige Grundlagen für das Vordringen in die Quantenwelt gelegt – etwa durch seine Arbeiten zu Quantengasen: 2002 spannte sein Team ein dreidimensionales Gitter aus ultrakalten Atomen auf, die allein mit der Kraft von schwachen Laserstrahlen festgehalten wurden. Ultrakalte Gase sind eines der heißesten Forschungsthemen in der Quantenphysik – zum Beispiel Bose-Einstein-Kondensate. Ihre Besonderheit: Die quantenmechanischen Wellenfunktionen der enthaltenen Teilchen überlappen sich bei Bruchteilen von Grad über dem absoluten Temperaturnullpunkt. Solche Systeme sind ein ideales Modell, um quantenphysikalische Phänomene zu studieren. Sie aus Einzelatomen herzustellen, ist inzwischen Routine. Noch viel interessanter sind Gase aus Molekülen, also aus chemisch gebundenen Atomen. 2008 gelang Innsbrucker Physikern erstmals die Erzeugung eines Quantengases aus paarweise gebundenen Cäsium-Atomen – für eine zumindest in der Quantenwelt halbe Ewigkeit von zehn Sekunden. Nun ist das Ziel, noch größere Moleküle zu vereinen. Mit derart tiefgekühlten Molekülen könnten die Wissenschaftler chemische Reaktionen viel genauer als bisher beobachten und gezielt steuern. ■

von Bernd Müller

Mehr zum Thema

Lesen

Jörg Resag Die Entdeckung des Unteilbaren Spektrum Akademischer Verlag Heidelberg 2010, € 24,95

Manjit Kumar Quanten Berlin Verlag, Berlin 2010, € 28,–

Anton Zeilinger Einsteins Schleier Die neue Welt der Quantenphysik C.H. Beck, München 2004, € 19,90

Herbert Pietschmann Quantenmechanik verstehen Eine Einführung in den Welle-Teilchen-Dualismus für Lehrer und Studierende Springer, Berlin 2003, € 32,95

Hörbuch

Die 7 Rätsel der Physik Hörfassung der Titelgeschichte in bdw 5/2005 Komplett-Media, Grünwald 2006, € 12,95

Internet

Viele gute und leicht verständliche Beiträge zu physikalischen Themen: www.weltderphysik.de

Arbeitsgruppe von Theodor W. Hänsch am Max-Planck-Institut für Quantenoptik: www.mpq.mpg.de/~haensch

Homepage der Deutschen Physikalischen Gesellschaft: www.dpg-physik.de

Studie der DPG: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“: www.dpg-physik.de/veroeffentlichung/broschueren/studien/energie_2010.pdf

Ausführliche Informationen zu allen Nobelpreisen für Physik (auf Englisch): nobelprize.org/nobel_prizes/physics

Institut für Quantenoptik und Quanteninformation der Uni Wien (Anton Zeilinger): www.quantum.at

Grafische Visualisierung der Quantenmechanik durch Bernd Thaller (Uni Graz): vqm.uni-graz.at/pages/qm_gallery/ index.html

Gewinnspiel

Auf der bdw-Homepage finden Sie ein Gewinnspiel zu dieser Titelgeschichte – mit vielen attraktiven Preisen: www.abo-aktionen.de/bdw/gewinnspiel

Ohne Titel

Man betrachtet Forscher misstrauisch, wenn sie sehr stark popularisieren

Die echten wissenschaftlichen Fortschritte finden immer noch in den Köpfen statt

Flucht durch die Wand

In der Mikrowelt können Teilchen Energiebarrieren durchtunneln. Etwa Alpha-Teilchen: Die Partikel, die aus zwei Protonen und zwei Neutronen bestehen, entwischen mit einer bestimmten Wahrscheinlichkeit aus einem radioaktiven Kern – dargestellt durch ihre Wellenfunktion.

Photonen mit Bremswirkung

Um Atome mit Photonen zu kühlen, werden sie mit polarisiertem Laserlicht bestrahlt. Die Atome absorbieren die Photonen und geben sie wieder ab – dabei erhalten sie einen Rückstoß. Wird die Laserfrequenz so gewählt, dass das Licht bevorzugt Atome anregt, die ihm entgegen fliegen, ist das Resultat ein kühlender Bremseffekt.

Fundament des Fortschritts

Der Klimawandel bewegt die Gemüter. Während viele Menschen die Folgen der globalen Erwärmung fürchten, wettern andere gegen die vermeintliche Panikmache. Die Leserbriefe, die nach jedem Klima-Beitrag die bdw-Redaktion erreichen, belegen, wie emotional das Thema aufgeladen ist. Nur harte Fakten können den Disput in ruhigere Bahnen lenken. Und dabei sind vor allem Physiker gefordert. „Als Wissenschaftler, die sich auf experimentelle Tatsachen berufen und die nötigen Methoden zur Verfügung haben, um Daten zu erheben und zu prüfen, leisten Physiker einen wichtigen Beitrag zur Versachlichung der Diskussion“, sagt Wolfgang Sandner. Der Laserphysiker ist Direktor am Berliner Max-Born-Institut für Nichtlineare Optik und Kurzzeitspektroskopie sowie Präsident der Deutschen Physikalischen Gesellschaft (DPG).

Es waren Physiker, die den Treibhauseffekt und die globale Erwärmung entdeckten und wissenschaftlich erklärten – ebenso wie die statistischen Unsicherheiten, die aus einer erdgeschichtlich kurzen Beobachtungsphase resultieren. Und es waren vor allem Physiker, die seit den 1980er- Jahren zahlreiche klare Belege dafür fanden, dass der Kohlendioxid-Gehalt in der Atmosphäre steigt und dass dazu menschliche Aktivitäten maßgeblich beitragen. Die Klimaforschung fördert weltweit immer neue Zusammenhänge zu Tage. Doch nicht nur dabei stehen die Physiker an vorderster Front, auch zur Lösung anderer globaler Probleme leisten sie wichtige Beiträge. „Die Physik wird heute nicht mehr als Einzelwissenschaft wahrgenommen“, meint DPG-Präsident Sandner. „Immer häufiger wird auch danach gefragt, welche Beiträge sie für die großen Herausforderungen der Gesellschaft leisten kann.“

Ohne Physik keine Energie

Ein Beispiel ist die Suche nach dem besten Weg zu einer sauberen und nachhaltigen Energieversorgung. Egal, welche Energieform man betrachtet – ohne die Physik kommt man nicht aus, wobei die Energiedebatte zusätzlich eine beträchtliche gesellschaftliche und politische Dimension hat. Das zeigt die aktuelle Diskussion um die Gefahren der Kernenergie, selbst wenn in Deutschland Einigkeit über deren langfristige Abschaffung besteht. „In anderen Ländern sieht man das anders, weshalb man international nicht auf Konzepte zur weiteren Minimierung des Risikos verzichten kann“, sagt Sandner. Bis in Zukunft die regenerativen Energien auch die Grundlast der Energieversorgung übernehmen können, ringen andere Physiker um eine Verbesserung des Wirkungsgrads von Kohle- und Gaskraftwerken. Sie verfolgen das Ziel, wenigstens deren Ausstoß an Kohlendioxid (CO2) zu verringern – mit Erfolg: So ist der Wirkungsgrad von neuen Braunkohlekraftwerken dank physikalisch-technischer Kniffe seit den 1960er-Jahren von 30 auf rund 45 Prozent gestiegen. Moderne Gas-und-Dampf-Kraftwerke kommen sogar auf 60 Prozent.

Ein Schwerpunkt der physikalischen Energieforschung liegt auf der Nutzung der Sonnenenergie. Etwa am Freiburger Fraunhofer-Institut für Solare Energiesysteme (ISE): Die Forscher dort stellen mit ihren Solarzellen seit Jahren immer neue Weltrekorde auf. 2009 vermeldeten sie einen Wirkungsgrad von 41,1 Prozent bei der Umwandlung von Sonnenlicht in elektrische Energie in einer Mehrfachsolarzelle. Der Wirkungsgrad kommerziell erhältlicher Solarzellen ist von solchen Rekordwerten allerdings noch weit entfernt: Er liegt bei maximal rund 20 Prozent. Im Fokus der physikalischen Forschung stehen Dünnschichtsolarzellen, die die Energie des Sonnenlichts in einer wenige Mikrometer dünnen Schicht einfangen. Sie besteht häufig aus Silizium, Kadmiumtellurid oder einer Verbindung aus Kupfer, Indium, Gallium und Schwefel oder Selen (CIGS).

Doch die Forscher sind auf der Suche nach neuen, besseren Werkstoffen. Im Visier haben sie etwa „Schwarzes Silizium“, dessen Oberfläche mit winzigen Nadeln besetzt ist. Diese Nadeln absorbieren das Sonnenlicht besonders stark und leiten es ins Silizium hinein. Künftige Solarzellen aus Schwarzem Silizium versprechen hohe Wirkungsgrade. Die meisten Experten sind sich einig, dass auf lange Sicht alternative Energiequellen wie Sonne, Wind, Erdwärme und Biomasse den Löwenanteil der Energieversorgung stemmen werden – und dass elektrischer Strom als Energieträger enorm an Bedeutung gewinnen wird. Doch über den richtigen Weg dorthin gibt es kontroverse Diskussionen. Die DPG nahm das zum Anlass für eine Studie, die alle relevanten Ansätze zum Gewinnen, Übertragen und Speichern von Energie aus physikalischer Sicht analysiert. „Ziel war es, naturwissenschaftliche Fakten als Basis für die Diskussion über eine nachhaltige Energieversorgung bereitzustellen“, sagt DPG-Präsident Sandner. Die Fakten zu bewerten und Entscheidungen zu treffen, sieht er als Aufgabe für Gesellschaft und Politik. Wo sie Fehleinschätzungen und falsche Akzente erkennen, nehmen die deutschen Physiker dennoch kein Blatt vor den Mund. So haben sie verschiedene Modell-Szenarien bei der Kraft-Wärme-Kopplung (KWK) durchgerechnet, um zu ergründen, ob man Technologien als solche oder besser deren Einspareffekte subventionieren sollte. KWK ist dafür ein gutes Beispiel, denn sie verknüpft das Gewinnen von elektrischer Energie mit der von Wärme, außerdem gilt sie als gute Option, den Ausstoß von CO2 zu reduzieren – und sie wird in Deutschland finanziell gefördert. Interessanterweise ergaben physikalische Analysen, dass die KWK gegenüber einer separaten Erzeugung von Elektrizität und Wärme nicht immer Vorteile bringt. Subventionen, so die Folgerung der DPG-Physiker, sollten daher nur für nachweisbare Spareffekte bei Energieverbrauch und CO2-Ausstoß fließen, wenn sie ihr Ziel erreichen sollen.

Kein Sparen bei der Forschung

Glücklicherweise sieht DPG-Chef Wolfgang Sandner einen wachsenden Stellenwert physikalischer Erkenntnisse bei Politikern jeder Couleur: „Wir führen regelmäßig Gespräche mit Spitzenpolitikern“, berichtet er. Ein Zeichen für das Ansehen von Wissenschaft und Forschung erkennt Sandner darin, dass dieser Bereich bei den Sparrunden wegen der Finanzkrise 2009 von Kürzungen ausgenommen wurde. Immerhin steht mit Angela Merkel eine promovierte Physikerin an der Spitze der deutschen Regierung. „Dennoch ernten wir in den täglichen Gesprächen noch viel Unverständnis“, sagt Sandner. Vor allem Wirtschafts- und Sozialpolitiker setzen bisher kaum auf physikalisches Wissen oder Methodik. Der Austausch zwischen Wissenschaft und Politik ist in diesem Bereich recht dünn. Dabei gibt es klare Verbindungen: Viele Methoden, mit denen Physiker und Ökonomen die Welt beschreiben, ähneln sich – etwa Phasendiagramme und statistische Modelle. Damit versuchen Wissenschaftler seit einigen Jahren, naturwissenschaftliche Methoden auf ökonomische Systeme wie die Finanzmärkte anzuwenden.

Häufig ist die Disziplin von DPG-Präsident Sandner – die Laserphysik – gefragt, wenn es um innovative Lösungen für gesellschaftliche Herausforderungen geht. Seit 1960 das erste Laserlicht aufblitzte, haben Laser die Forschung, Fertigung und Alltagstechnik revolutioniert (siehe bdw 5/2010, „Weltmacht Licht“ ). Und der Trend hält an, ist Wolfgang Sandner überzeugt – etwa in der Informations- und Kommunikationstechnologie. Photonen lassen sich nutzen, um extrem kleine und schnelle Bauelemente zu schaffen, die mit Licht statt mit Elektronen arbeiten. „Wir erleben gerade eine Fortsetzung der Erfolgsgeschichte des Lasers hinein in den Bereich der Nanotechnologie“, schwärmt Sandner.

Viren unter der Röntgenlupe

Ein Ziel sind Laser, die kurzwellige UV- oder Röntgenstrahlung aussenden. Damit lässt sich die Struktur von großen organischen Molekülen entschlüsseln. Die spielen etwa bei der Suche nach neuen Medikamentenwirkstoffen eine zentrale Rolle. Mit ihrer Hilfe soll sich die Entwicklung von Arzneimitteln vereinfachen und beschleunigen lassen. Auch Viren kann man per Röntgenlaser ins Visier nehmen. Die Idee: Wenn man die Krankheitserreger genau kennt, fällt es leichter, Wirkstoffe aufzuspüren, die ihnen Paroli bieten können. Entscheidend dafür ist die Kunst, immer kürzere Lichtpulse zu generieren. Heute gelingt es, eine Pulsdauer von rund 10 Attosekunden zu erreichen. Das entspricht der Zeitspanne, die ein Elektron – im klassischen Bild – benötigt, um einmal einen Atomkern zu umkreisen.

Der Nutzen physikalischer Methoden für die Medizin ist leicht zu vermitteln. Auf anderen Gebieten fällt das schwerer. So lassen sich hartnäckige Skeptiker des Klimawandels nicht überzeugen. „ Das zeigt, dass wir noch Hausaufgaben zu erledigen haben“, räumt DPG-Präsident Sandner ein. Die Kommunikation mit der Öffentlichkeit steht zu wenig auf der Agenda der naturwissenschaftlichen Ausbildung. Doch das ist dringend nötig, um die rationale, differenzierte Sprache der Physiker so zu übersetzen, dass auch die Menschen auf der Straße verstehen, ob „ schwarz“ oder „weiß“ gemeint ist. ■

von Ralf Butscher

Ohne Titel

Quanten, Quarks & Co

Nobelpreisträger Theodor W. Hänsch ist Ihr Lotse durch die moderne Physik.

Photoeffekt

Manchmal verhält sich das Licht, als bestünde es aus vielen winzigen Gewehrkugeln. Beschießt man damit die Oberfläche eines Metalls, schlagen die „Licht-Projektile“ – die Photonen – dort Elektronen heraus. Eine Erklärung für diesen Photoeffekt fand Albert Einstein und wurde dafür 1921 mit dem Nobelpreis ausgezeichnet (Frage 1). Die Photonen müssen jedoch eine bestimmte Energie besitzen, um Elektronen herauslösen zu können – im klassischen Bild braucht das Licht eine Mindestfrequenz. Erhöht man die Intensität des Lichts, steigt proportional dazu die Zahl der befreiten Elektronen. In Halbleitern tritt ein ähnlicher Effekt auf, den die Physiker als inneren Photoeffekt bezeichnen: Dabei entkommen die Elektronen nicht aus dem Material, sondern werden in einen Zustand versetzt, in dem sie frei beweglich sind – ein elektrischer Strom kann fließen. Damit arbeiten beispielsweise Solarzellen.

Photonen Die Photonen sind die Elementarteilchen des Lichts. Sie sind – wie die Elektronen – punktförmig, also unendlich klein, sie besitzen keine Ruhemasse und bewegen sich stets mit Lichtgeschwindigkeit. Anders als Elektronen tragen sie keine elektrische Ladung. Photonen zählen zu den Partikeln, die Kräfte zwischen anderen Teilchen übertragen – bei den Photonen die elektromagnetische Kraft.

Welle-Teilchen-Dualismus Das Licht lässt sich nicht festlegen. Manchmal verhält es sich wie ein Strahl aus Photonen. Aber Beugung und Interferenz kann man nur verstehen, wenn man das Licht als Welle betrachtet. Ein solches Doppelleben, das die Physiker als Welle-Teilchen-Dualismus bezeichnen, führt nicht nur das Licht – man findet es auch bei Elektronen oder Protonen. Letztlich lässt sich in der Quantenwelt jeder Stoff als Welle deuten – die Physiker sagen: als Materiewellen.

Wellenfunktion

Welche Eigenschaften ein Teilchen hat und wie sich sein Zustand mit der Zeit verändert, steckt als Information in der Wellenfunktion. Das mathematische Quadrat dieser Funktion liefert die Aufenthaltswahrscheinlichkeit – und damit eine Aussage darüber, wo sich das Teilchen befindet. Präzise lässt sich sein Ort allerdings nicht lokalisieren – das verhindert die Unschärferelation.

Schrödinger-Gleichung Von dem österreichischen Physiker Erwin Schrödinger stammt eine zentrale Gleichung der Quantenmechanik. Sie beschreibt, wie sich der Zustand eines Quantensystems – etwa eines Atoms – unter bestimmten Bedingungen verändert (Frage 2):

Unschärferelation In der Quantenwelt scheint vieles, was man aus dem Alltag kennt, zu verschwimmen. Das zeigt die von Werner Heisenberg formulierte Unschärferelation. Demnach ist es nicht möglich, Ort und Geschwindigkeit eines Teilchens gleichzeitig genau zu messen. Je genauer man seinen Ort bestimmt, desto weniger weiß man über seine Geschwindigkeit und umgekehrt. Das Gleiche gilt bei physikalischen Vorgängen für Energie und Zeit.

Nullpunktenergie

In einem Quantensystem kann die Energie nie Null werden – eine Konsequenz aus der Unschärferelation. Die niedrigste mögliche Energie nennen die Physiker Nullpunktenergie.

Atom Das moderne Bild von den Atomen hat nur wenig Ähnlichkeit mit dem einfachen Modell umeinander kreisender Teilchen, wie es früher gelehrt wurde. Heute favorisieren die Physiker das Orbitalmodell: Statt sich auf festen Bahnen zu bewegen, füllen die Elektronen in der Atomhülle geometrisch geformte Raumbereiche – die Orbitale, die den im Vergleich dazu winzigen Atomkern aus Protonen und Neutronen umgeben. Wo genau sich ein Elektron in einem Orbital aufhält, lässt sich nicht sagen – das verhindert die Unschärferelation.

Quantenpunkt

Ein Quantenpunkt ist ein nanotechnologisches Gebilde, das meist einige Tausend Atome umfasst. Es ist damit so klein, dass die Elektronen darin ähnliche Eigenschaften zeigen wie in einem Atom. Daher lassen sich Quantenpunkte als künstliche Atome ansehen, deren Merkmale man durch Variieren von Größe, Gestalt und Material gezielt verändern und nach Maß einstellen kann.

Verschränkung In der Quantenphysik kann man zwei Teilchen so miteinander verbinden, dass sie sich nicht mehr als unabhängige Partikel betrachten lassen. Ihr Zustand wird durch eine einzige Wellenfunktion beschrieben. Diese quantenmechanische Verschränkung kann über beliebig weite Distanzen bestehen. Eine Messung der Eigenschaften eines der beiden Teilchen bestimmt ohne Zeitverzögerung auch die Eigenschaften des Partners. Albert Einstein sprach von spukhafter Fernwirkung.

Spin Viele Teilchen verhalten sich, vereinfacht gesagt, wie Kreisel: Sie rotieren scheinbar um ihre eigene Achse. Das verleiht ihnen eine Art Drehimpuls. Die quantenmechanische Realität ist allerdings komplizierter: Der Spin ist eine feste Eigenschaft der Partikel – und hat je nach Teilchen einen ganz- oder halbzahligen Wert. Photonen etwa haben den Spin 1, Elektronen und Protonen den Spin ½. Der Spin ist mit einem magnetischen Moment verbunden, das bestimmt, wie sich das Teilchen in einem Magnetfeld ausrichtet (Frage 5). Diese Orientierung ist quantisiert: Sie kann nur bestimmte Werte annehmen. Die Methode der Spinresonanz – etwa in Kernspintomographen – nutzt Übergänge zwischen verschiedenen Spin-Orientierungen, um Informationen über Materialien oder Körpergewebe zu gewinnen.

Bosonen und Fermionen Partikel mit einem ganzzahligen Spin haben andere Eigenschaften als solche, die einen halbzahligen Spin besitzen. Die Physiker unterscheiden deshalb zwischen Bosonen (Spin 0, 1, 2, …) und Fermionen (Spin ½, …).

Tunneleffekt

Im Alltag wäre es undenkbar, dass eine Kugel, die in einer tiefen Schale liegt, durch die Wand des Gefäßes entkommt. In der Quantenwelt aber ist eine solche „Zauberei“ möglich – zum Beispiel bei Elektronen oder Alpha-Teilchen: Ihnen gelingt es gelegentlich, die Energiebarriere um einen Atomkern zu überwinden. Sie tunneln einfach hindurch und verlassen den Kern. Die Folge ist ein radioaktiver Zerfall, bei dem die Partikel als Alpha-Strahlung abgegeben werden. Technisch wird der Tunneleffekt zum Beispiel beim Abtasten von Oberflächen mit der feinen Nadel eines Rastertunnelmikroskops oder beim Lesen von Daten auf einer Festplatte genutzt.

Die vier Grundkräfte

Sämtliche Wechselwirkungen in Universum, Natur und Technik lassen sich auf vier Grundkräfte zurückführen: die starke, schwache und elektromagnetische Wechselwirkung sowie die Gravitation. Die starke Kraft bindet die Bestandteile von Atomkernen aneinander, die schwache Wechselwirkung steuert manche radioaktiven Zerfälle. Die elektromagnetische Kraft steckt hinter elektrischen und magnetischen Phänomenen, hält Atome zusammen und sorgt für Licht. Die Gravitation lässt Massen einander anziehen.

Weltformel

Eine Weltformel oder „Theorie für alles“ soll sämtliche Phänomene der Physik erklären – idealerweise mithilfe einer einzigen Formel. Sie zu finden, ist das Ziel vieler Theoretischer Physiker. Im Wesentlichen läuft die Suche nach der Weltformel darauf hinaus, alle vier Grundkräfte der Natur unter einen Hut zu bringen. Kandidaten dafür sind die Stringtheorie und die Loop-Quantengravitation (Frage 18), die aber noch Schwächen haben und bislang nicht als Weltformel taugen.

Supersymmetrie

Die Supersymmetrie ordnet fermionischen Elementarteilchen bosonische Partnerteilchen zu und umgekehrt. Allerdings: Bisher konnten die Physiker noch keine einziges solches supersymmetrisches Teilchen ausfindig machen.

Antimaterie Zu jedem Partikel gibt es ein Antiteilchen, das die entgegengesetzte elektrische Ladung, sonst aber identische Eigenschaften hat – zum Beispiel das Positron als Antiteilchen des Elektrons. Antiteilchen, die etwa in radioaktiven Atomkernen oder bei Kernreaktionen in Teilchenbeschleunigern entstehen, existieren meist nur für sehr kurze Zeit. Beim Kontakt mit ihrem Gegenstück zerstrahlen beide Teilchen, und Energie wird frei. Stoffe, die aus Antiteilchen bestehen, heißen Antimaterie. 1995 gelang es Forschern am CERN zum ersten Mal, Anti-Wasserstoffatome herzustellen. Rätselhaft ist, warum sich im Weltall nirgendwo Anti-Atome nachweisen lassen.

Quarks Protonen und Neutronen sind, anders als Elektronen, keine elementaren Teilchen. Sie bestehen jeweils aus drei anderen Partikeln: den Quarks. Davon kennen die Physiker sechs verschiedene Arten, die sie als „Up“, „Down“, „Charm“, „Strange“, „Bottom“ und „Top“ bezeichnen. Das Top-Quark ist das schwerste – es wiegt etwa so viel wie ein Gold-Atom (Frage 15). Zwei Up-Quarks und ein Down-Quark bilden ein Proton, in einem Neutron ist das Verhältnis zwischen Up- und Down-Quarks genau umgekehrt (Frage 8). Eine Besonderheit der Quarks: Sie lassen sich nicht einzeln beobachten, sondern treten stets in einer Kombination von zwei oder mehr Quarks auf.

Farbladung

Ein Merkmal der Quarks ist die Farbladung – eine quantenphysikalische Eigenschaft, die mit normalen Farben nichts zu tun hat. Die Physiker unterscheiden zwischen blauen, roten und grünen Quarks. Die Antiteilchen der Quarks haben eine antiblaue, antirote oder antigrüne Farbladung.

Absoluter Nullpunkt

Wärme ist ein Maß für die Bewegungsenergie von Atomen und Molekülen in Festkörpern, Flüssigkeiten und Gasen. Erreicht sie beim Abkühlen das quantenphysikalische Limit, die Nullpunktenergie, so ist sie am Absoluten Nullpunkt angelangt. Kälter kann es nicht werden. Der britische Physiker William Thomson (alias Lord Kelvin) führte 1848 die Absolute Temperaturskala ein, die mit dem Absoluten Nullpunkt bei 0 Kelvin beginnt. Er entspricht minus 273,15 Grad auf der Celsius-Skala. Die Grad-Abstände auf der Kelvin- und der Celsius-Skala sind gleich. Mithilfe aufwendiger Kühlverfahren schaffen es Forscher, Substanzen bis auf weniger als ein Milliardstel Kelvin abzukühlen.

Bose-Einstein-Kondensat

Ein Bose-Einstein-Kondensat ist eine exotische Materieform, bei der sich viele gleichartige Teilchen im selben quantenmechanischen Zustand befinden. Sie verschmelzen quasi zu einem einzigen übergroßen Atom, in dem die Teilchen ihren individuellen Charakter verlieren. Möglich ist das im Prinzip nur bei Bosonen. Unter bestimmten Voraussetzungen lässt sich ein ähnlicher Zustand allerdings auch mit Fermionen schaffen.

Atomlaser

Wie ein normaler Laser Lichtwellen aussendet, die kohärent sind, emittiert ein Atomlaser einen kohärenten Teilchenstrahl, der aus Atomen besteht (Frage 7). Als Quelle der Atome dient ein Bose-Einstein-Kondensat.

Supraleiter

Manche Werkstoffe verlieren unterhalb einer sogenannten Sprungtemperatur vollständig ihren elektrischen Widerstand, sodass ein Strom darin ohne jeglichen Verlust fließen kann. Bei den meisten Materialien liegt die Sprungtemperatur nur wenige Grad über dem absoluten Nullpunkt. Eine Ausnahme bilden Hochtemperatursupraleiter, meist kupferhaltige Keramiken. Sie sind seit den 1980er-Jahren bekannt. 2006 stießen japanische Physiker auch auf eisenhaltige Verbindungen, die bei relativ hohen Temperaturen supraleitend werden. Die höchste bislang bekannte Sprungtemperatur eines Supraleiters beträgt minus 138 Grad Celsius (Frage 6). Supraleitende Stoffe transportieren nicht nur Strom widerstandslos, sie verdrängen auch Magnetfelder aus ihrem Inneren. Dieser Effekt steckt hinter Demonstrationen, bei denen Werkstücke zum Schweben gebracht werden.

Laser

Das Licht eines Lasers unterscheidet sich von gewöhnlichem Licht vor allem durch die Kohärenz: Laserwellen können sich durch Interferenz gegenseitig verstärken oder auslöschen. Laserlicht lässt sich als gebündelter Strahl aussenden und auf einen winzigen Brennfleck fokussieren. Außerdem kann Laserlicht monochromatisch sein, also nur einen einzige Farbe enthalten. Voraussetzung für das Erzeugen von Laserlicht ist eine Besetzungsinversion in dem Lasermedium (etwa einem Kristall oder Farbstoff – Frage 3). Das heißt, es befinden sich mehr Elektronen in einem energetisch angeregten Zustand als im Grundzustand. Das lässt sich durch optisches oder elektrisches „Pumpen“ erreichen. Durch stimulierte Emission (das Lasermedium wird durch Photonen passender Energie quasi gekitzelt) fallen die Elektronen zurück in den Grundzustand – es wird Energie frei und als Laserlicht ausgesandt.

Ultrakurze Laserpulse Bei manchen Lasern lässt sich das Licht in extrem kurze und sehr energiereiche Pulse portionieren. Sie eignen sich gut zu einer hochpräzisen Bearbeitung von Werkstoffen sowie zum Untersuchen sehr schneller Vorgänge in Atomen oder Molekülen. Heute gelingt es, Pulse zu erzeugen, die für weniger als eine Femtosekunde (10–15 Sekunde) aufblitzen.

Frequenzkamm

Lichtwellen schwingen mit einer sehr hohen Frequenz von einigen 10–15 Hertz, das heißt mehrere Millionen Milliarden Mal pro Sekunde. So hohe Frequenzen exakt zu messen, stellt extreme Anforderungen an die Messtechnik. Gelingen kann das mithilfe eines Frequenzkamms. Der lässt sich mit ultrakurzen Laserpulsen erzeugen. Deren Licht hat ein sehr breites Spektrum, das sich in zahlreiche feine Linien mit exakt bekanntem Abstand zerteilen lässt – den Frequenzkamm. Die scharfen Linien können als optisches Lineal dienen, um die Frequenz anderer Lichtquellen genau zu vermessen. Und sie eignen sich zum Bau von hochpräzisen optischen Atomuhren.

Energie

Die Energie ist eine physikalische Erhaltungsgröße. Das heißt: In einem abgeschlossenen System bleibt ihre Gesamtmenge konstant. Allerdings kann die Energie in verschiedenen Formen auftreten – etwa als mechanische, elektrische, chemische, potenzielle oder thermische Energie – und zwischen ihnen wechseln. Energie lässt sich nutzen, um Arbeit zu verrichten, etwa zum Beschleunigen eines Fahrzeugs oder zum Heben einer Last, um Gegenstände zu erwärmen oder um elektrische Geräte zu betreiben. Laut dem Äquivalenzprinzip besitzen außerdem alle massiven Körper eine Ruheenergie, die nur von ihrer Masse abhängt.

Leistung

Als Leistung ist die Energiemenge definiert, die in einer bestimmten Zeit verbraucht oder produziert wird, zum Beispiel von einem Motor oder in einem Kraftwerk. Ein wichtiger Begriff in der Kraftwerkstechnik ist die installierte Leistung: Sie gibt an, welche Leistung etwa ein Windrad oder ein Solarzellen-Modul maximal liefern kann. Sie wird aber nur unter optimalen Bedingungen erreicht: bei Starkwind oder in der Mittagssonne.

Wirkungsgrad

Der Wirkungsgrad ist das Verhältnis von abgegebener zu aufgenommener Leistung. Er zeigt an, welcher Energieanteil bei einer Umwandlung in die gewünschte Energieart umgesetzt wird – etwa von chemischer in mechanische Energie in einem Motor – und wie viel als Wärme verloren geht.

Standardmodell Im Standardmodell sind alle bekannten Elementarteilchen und die zwischen ihnen wirkenden Kräfte zusammengefasst – und zwar in einer strengen Ordnung und Symmetrie: Es gibt drei Generationen von Materieteilchen, zu denen je vier Elementarpartikel gehören: zwei Quarks und zwei sogenannte Leptonen. Leptonen sind Elektronen, Myonen und Tauonen sowie drei verschiedene Neutrinos (Frage 13). Die Grundkräfte sind in dem Modell durch die Teilchen repräsentiert, die diese Wechselwirkungen übertragen: Photon (elektromagnetische Kraft), Gluon (starke Kraft, Frage 4) sowie W- und Z-Bosonen (schwache Kraft). Die Gravitation passt nicht ins Standardmodell.

Neutrinos Neutrinos werden auch als „Geisterteilchen“ bezeichnet (Frage 19), denn sie können Materie fast ungehindert durchdringen. Und sie tun das auch in großer Zahl: Das Weltall ist voll von Neutrinos, die Erde und menschliche Körper passieren, ohne Spuren zu hinterlassen. Sie entstehen beispielsweise beim radioaktiven Beta-Zerfall. Eine Frage, die lange Zeit die Physiker bewegte, war: Hat ein Neutrino eine Masse? Verschiedene Experimente deuten darauf hin, dass sie eine sehr kleine Masse besitzen. Neue Experimente, etwa mit dem riesigen Spektrometer KATRIN am Karlsruher Institut für Technologie (KIT), sollen die Frage nach der Masse der Neutrinos, von denen drei Arten existieren, mit hoher Präzision beantworten (Frage 17).

Higgs-Teilchen

Der britische Physiker Peter Higgs führte 1964 ein hypothetisches Teilchen ins Standardmodell ein, um zu erklären, weshalb die anderen Partikel überhaupt eine Masse besitzen. Das nach ihm benannte Higgs-Teilchen (oder Higgs-Boson) soll Masse über einen komplizierten Mechanismus verleihen (Frage 11). Es erstmals experimentell nachzuweisen, ist eines der wichtigsten Ziele des 2008 in Betrieb genommenen europäischen Teilchenbeschleunigers LHC am CERN in Genf.

Relativitätstheorie

Im Abstand von zehn Jahren veröffentlichte Albert Einstein zwei Theorien, die das Weltbild der Physik revolutioniert haben. 1905 schuf er die Spezielle Relativitätstheorie, in der die drei Raumdimensionen mit der Zeit zu einer vierdimensionalen Raumzeit verschmelzen. Einstein nahm die Lichtgeschwindigkeit als eine konstante Größe an, die von allen Beobachtern gleich wahrgenommen wird – unabhängig von ihrer Bewegung relativ zueinander. Daraus folgt unter anderem, dass die Distanz und die Zeitdauer unterschiedlich sein können, je nachdem, von welchem System aus man sie betrachtet. Mit der 1915 publizierten Allgemeinen Relativitätstheorie erklärte der Physiker die Gravitation als eine Eigenschaft der geometrischen Struktur der Raumzeit. Diese wiederum soll von den Massen der in ihr enthaltenen Körper wie Planeten, Sterne und Galaxien beeinflusst und deformiert werden.

Masse und Energie

Laut Albert Einstein sind Masse und Ruheenergie äquivalent. Die Gleichung dafür ist vielleicht die berühmteste Formel der gesamten Physik:

Sie besagt: Die Ruheenergie eines Teilchens oder größeren Körpers lässt sich in Masse verwandeln – und umgekehrt. Das nutzt man etwa zur Spaltung schwerer Atomkerne in Kernkraftwerken: Die daraus hervorgehenden Kerne haben zusammen weniger Masse als der ursprüngliche Kern – der Rest wird als Energie freigesetzt. Der umgekehrte Prozess läuft in der Sonne sowie in Kernfusionsreaktoren ab: Leichte Wasserstoff-Atomkerne verschmelzen zu schwereren Helium-Kernen. Auch bei dieser Kernumwandlung geht Masse verloren, aus der Energie entsteht.

Die wichtigsten Konstanten der Physik Lichtgeschwindigkeit im Vakuum c: 299792458 m/s2 (laut Relativitätstheorie universell)

Elementarladung e: 1,602176487 ∙ 10–19 C (kleinste mögliche Ladungsportion)

Gravitationskonstante G: 6,67428 ∙ 10–11 m3/kgs2 (verknüpft Masse mit Schwerkraft)

Avogadro-Konstante NA: 6,02214179 ∙ 1023 mol–1 (gibt die Zahl der Atome oder Moleküle in einer bestimmten Stoffmenge an)

Plancksches Wirkungsquantum h: 6,62606896 ∙ 10–34 Js (verknüpft Teilchen- und Welleneigenschaften, zentrale Größe der Quantenmechanik)

Feinstrukturkonstante α: 7,2973525376∙ 10–3 oder 1/137,036 (bestimmt die Stärke der elektromagnetischen Kraft – Frage 12)

magnetische Feldkonstante μ0: 4p ∙ 10–7 VsA–1m–1 (Beschreibung magnetischer Phänomene)

Boltzmann-Konstante kB: 1,3806504 ∙ 10–23 JK –1

(Grundkonstante der statistischen Physik)

Haben Sie es gewusst?

Die Auflösung des Physik-Wissenstests auf den Seiten 6 und 7: 1: a, 2: b, 3: c, 4: a, 5: b, 6: a, 7: c, 8: a, 9: b, 10: a, 11: c, 12: a, 13: c, 14: b, 15: b, 16: c, 17: b, 18: b, 19: c, 20: a

Tröpfchenweise Lichtteilchen

Mit Quantenpunkten lassen sich einzelne Photonen erzeugen. Die winzigen „Häufchen“ aus einigen Tausend Atomen lassen sich zwischen zwei Halbleiter-Schichten einbetten. Schickt man einen schwachen elektrischen Strom hindurch, tröpfeln Photonen heraus.

Anzeige

bild der wissenschaft | Aktuelles Heft

Anzeige

Dossiers

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Eber|wurz  〈f. 20; Bot.〉 Angehörige einer Gattung von Korbblütlern mit strahlig ausgebreiteten, trockenhäutigen u. oft blumenblattartig gefärbten inneren Hüllblättern: Carlina; Sy Wetterdistel ... mehr

Gum|mi|hand|schuh  〈m. 1〉 Handschuh aus Gummi, in der Medizin aus hygien. Gründen od. im Haushalt zum Schonen der Hände verwendet

Zä|sur  〈f. 20〉 1 〈Metrik〉 Einschnitt, Ruhepunkt in einem Vers, durch das Wortende od. das syntaktische Gefüge bedingt 2 〈Mus.〉 Einschnitt, bes. Pause, in der musikal. Tonfolge ... mehr

» im Lexikon stöbern
Anzeige
Anzeige