Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

Zurück zur Öffentlichen Wissenschaft

Geschichte|Archäologie

Zurück zur Öffentlichen Wissenschaft
Wissenschaft und Gesellschaft entfremden sich zusehends. bild der wissenschaft schlägt Brücken.

ar früher wirklich alles besser? Das Wetter, das Essen, die Jugend und die Zukunft? Es ist ein Trugbild. Nostalgie gaukelt dem selektiven Gedächtnis das Bild einer guten alten Zeit vor, die es so noch nie gegeben hat. Manches freilich war ehedem wirklich besser, etwa das Renommee der Wissenschaft. Nehmen wir der Einfachheit halber den Status des Hochschulprofessors als ihres prominentesten Repräsentanten. Er erfreute sich vor 50 Jahren bei fast der Hälfte der westdeutschen Bevölkerung höchster Wertschätzung, an Prestige übertroffen nur noch vom Arzt und vom Geistlichen. Seitdem ging es mit dem Ansehen des Gelehrten zügig bergab. Auf der jüngsten Allensbacher Berufsprestige-Skala aus dem Jahr 2013 findet sich der Professor gerade mal auf Platz sieben wieder, gleichauf mit dem Ingenieur, dessen Image auch schon bessere Zeiten gesehen hat, und in Augenhöhe mit dem Rechtsanwalt.

Nur noch 26 Prozent der Deutschen haben heute „am meisten Achtung“ vor der Profession des Professors. 2011 zog immerhin noch ein Drittel der Bevölkerung vor den Wissenschaftlern den statistischen Hut. Die Allensbacher Meinungsforscher wundern sich: „In einem Land wie Deutschland, das in der Vergangenheit besonders stolz war auf seine produktive Intelligenz, auf die Berufe in Forschung und Lehre, und bis heute qualifizierte Leute in diesem Berufsbereich braucht, wirkt es eigentümlich, wie sehr der Beruf des Hochschulprofessors an Prestige verloren hat.“

Woran liegt das? Zugegeben: Zeitgenössische Wissenschaft mutet gelegentlich recht kryptisch an. Nobelpreise wurden 2013 vergeben für „die theoretische Entdeckung eines Mechanismus, der zu unserem Verständnis des Ursprungs der Masse subatomarer Teilchen beiträgt“ (Physik) und für „die Entwicklung von multiskalen Modellen für komplexe chemische Systeme“ (Chemie) – so viel Schleierhaftes strapaziert doch sehr die Begeisterungsfähigkeit. „ Öffentliche Wissenschaft“, wie bdw-Gründer Professor Heinz Haber sie 1964 einforderte (siehe Beitrag „1964 – Das erste Jahr“ ab Seite 56), ist das sicherlich nicht.

Die Schule erscheint ebenfalls nicht als ein Ort, der Leidenschaft und Neugier entzündet, obwohl dies ihre ureigenste Aufgabe wäre: „Wichtige Ergebnisse des ROSE-Projekts zeigen, dass sich die Schülerinnen und Schüler in reichen Ländern nicht für Wissenschaft in der Schule begeistern“, sagt Alexa Joyce, Leiterin Unternehmensentwicklung beim European Schoolnet. ROSE ist eine internationale Studie über naturwissenschaftlichen Unterricht.

Anzeige

Joyce weiter über die Motivationslage der Jugendlichen: „Sie glauben, dass es nicht wichtig ist, mehr über Wissenschaft und Technik zu erfahren oder dass es ihre Karrierechancen verbessert.“ Tatsächlich können sich in Deutschland 42 Prozent aller Schüler und 72 Prozent aller Schülerinnen im Alter von 14 bis 19 Jahren nicht vorstellen, später einen Beruf aus dem technisch-naturwissenschaftlichen Bereich zu ergreifen (Forsa-Erhebung 2013). Die Folgen: Schon im vergangenen Jahr fehlten auf dem deutschen Arbeitsmarkt 121 000 Mathematiker, Informatiker, Naturwissenschaftler und Techniker. 2020 könnten es bis zu 1,4 Millionen sein, befürchtet das Institut der deutschen Wirtschaft.

Es hapert an Verständlichkeit – und an Faszination

Die Wissenschaft selbst ist nicht unschuldig an der Malaise. Sie hat schon lange ein Problem damit, ihre Ziele und den Weg dorthin leicht fasslich zu erklären oder gar Faszination zu vermitteln. Es gilt in manchen Kreisen noch immer als Ausweis von hohem geistigem Rang, auch die schlichteste Erkenntnis in elitären Fachjargon zu verpacken.

Der Laie spürt dies und ist verstimmt. Wissenschaft wird als selbstzufrieden, unverständlich und im Zweifelsfall als bedrohlich empfunden. Begriffe wie Nanotechnologie, Gen- oder Gehirnforschung wecken in der Öffentlichkeit Skepsis und diffuse Ängste, aber keine Neugier. Der Zeitgeist – und mit ihm die Erziehung – strebt ohnehin lieber zurück zur Natur als vorwärts zur Naturwissenschaft.

Das muss und darf nicht sein. Staunen, Erkenntniswille und die Reise zu neuen Horizonten sind Triebkräfte, die den Naturwissenschaften bis heute innewohnen. Es ist keine leichte, aber eine lohnende Aufgabe, die Öffentlichkeit auf diesem Weg mitzunehmen – im Haber’schen Sinn „Öffentliche Wissenschaft“ zu betreiben.

bild der wissenschaft arbeitet jetzt seit 50 Jahren daran. Aus Anlass dieses Jubiläums hat die Redaktion in einer Befragung unter Experten und bdw-Lesern die 50 Highlights aus den vergangenen 50 Jahren in Forschung und Technik ermittelt. Sie bestimmen das Bewusstsein unserer Gesellschaft.

von Hans Schmidt

Was die Welt veränderte

Platz 1

Das World Wide Web

1991

Das World Wide Web – die klare Nummer 1 unter den 50 Highlights – ist eine unbeabsichtigte Erfindung. Sie ist lediglich das Nebenprodukt von Teilchenexperimenten am Europäischen Forschungszentrum CERN und stammt von einem einzelnen Mann, der es sich zur Aufgabe gemacht hatte, die ungeheure Dokumentenfülle der Großforschungseinrichtung CERN zu bändigen. Und dabei ein umfassendes Ordnungs- und Zugangssystem für das Weltwissen schuf.

Vor 30 Jahren betrieben die Genfer Elementarteilchenjäger eine Unzahl verschiedenartiger, miteinander unverträglicher Informationssysteme, etwa das CERNDOC, das weder Grafiken darstellen noch Verweise analog zu heutigen Links anlegen konnte. Abhilfe schuf der englische Informatiker Tim Berners-Lee. Er war ab 1984 erst mit der Entwicklung von Schnittstellen befasst, dann mit Rechnerfernsteuerung. Lee entwickelte unter Zuhilfenahme des Hypertext-Konzepts und des Unix-Betriebssystems NeXT-Step ein neuartiges Informationsmanagement. Die technische Basis bildeten vernetzte NeXT-Computer, die wie das genannte Betriebssystem aus dem Hause NeXT in Freemont, Kalifornien, stammten. Das hatte ein gewisser Steven Jobs während seiner Auszeit bei Apple Computer gegründet.

Hypertext-Dokumente sind im Grunde nichts anderes als Webseiten. Berners-Lee hatte eine Suchmaschine – einen Browser – geschaffen, den er WorldWideWeb nannte. Dazu entwickelte er die Seitenbeschreibungssprache HTML, die Texte, Bilder und Hyperlinks auf einer Web-Seite zusammenfassen konnte, und den weltweit ersten Web-Server namens CERN httpd. Zusammen mit dem belgischen CERN-Forscher Robert Cailliau konzipierte er das Hypertext-Transferprotokoll (HTTP) für die Übertragung der Daten. Und fertig war das World Wide Web, das 1991 der Öffentlichkeit vorgestellt wurde.

Seit 1993 war das World Wide Web dank des Browsers Mosaic für jedermann leicht zu handhaben. Der Erfinder Berners-Lee blieb dem Web treu. 1994 gründete er das World Wide Web Consortium W3C am Massachusetts Institute of Technology, das seitdem unter seiner Führung über die Standards und Geschicke des Netzes wacht.

Obwohl die Begriffe heute oft synonym verwendet werden: Internet und World Wide Web sind nicht ein und dasselbe. Das Internet ist eine weltumspannende Infrastruktur aus einzelnen Computernetzwerken. Das World Wide Web hingegen ist lediglich einer von mehreren Diensten wie E-Mail, Telefonie, Steuerdaten- oder Dateiübertragung.

Das World Wide Web hat eine Karriere sondergleichen hinter sich. Weltweit nutzen es insgesamt 2,7 Milliarden Menschen, darunter 77 Prozent der deutschen Bevölkerung (2013). Und acht von zehn Nutzern können sich ein Leben ohne Internet überhaupt nicht mehr vorstellen – das meinen Deutsche aller Altersklassen.

Platz 2

Der universelle genetische Code

1967

Was, liebe Leser, ist eigentlich der Unterschied zwischen Ihnen, einem Meerschweinchen, einer Kröte und einem Bakterium? Ziemlich viel, könnte man meinen. Doch der Blick in die Zellen offenbart erstaunliche Ähnlichkeiten.

Bei allen Lebewesen liefert die Desoxyribonukleinsäure (DNA) den Bauplan für Eiweiße. Zwar unterscheidet sich die DNA der verschiedenen Arten hinsichtlich der Reihenfolge der Basen Adenin (A), Thymin (T), Cytosin (C) und Guanin (G). Doch ein aus drei Basen bestehendes „Triplett“, auch „Codon“ genannt, wird bei Kröte wie Mensch in dieselbe Aminosäure übersetzt – Aminosäuren sind die Bausteine der Eiweißmoleküle. So „codiert“ das Dreiergrüppchen GCA beispielsweise immer die Aminosäure Alanin, während AAC stets in Lysin übersetzt wird. Der Code ist universell.

Diese Erkenntnis verdanken wir den Forschern Charles Caskey, Richard Marshall und Marshall Nirenberg. Das Team hatte untersucht, ob im Labor hergestellte Codon-Fragmente von der Zellmaschinerie (zum Beispiel Ribosomen und transfer-RNAs) in Meerschweinchen, Krallenfrosch und Bakterien gleichermaßen gut „ verstanden“ werden. Das Ergebnis: mit kleinen Einschränkungen – ja. Ein Triplett wird immer in die gleiche Aminosäure übersetzt, egal, von welchem Lebewesen die Maschinerie stammt. Dieses Ergebnis publizierten die Forscher 1967 im Fachmagazin Science. Wichtige Vorarbeiten leistete der Biochemiker Nirenberg, der seit 1960 an den National Institutes of Health in Bethesda, Maryland an der Entschlüsselung des genetischen Codes forschte.

Gemeinsam mit seinem deutschen Kollegen Heinrich Matthaei konnte er 1961 im berühmten „Poly-U-Experiment“ erstmals ein Basentriplett einer bestimmten Aminosäure zuordnen. „Auf diese Weise hatte Nirenberg gezeigt, wie die Maschinerie in der Zelle für die Übersetzung des genetischen Codes verwendet werden kann“, hieß es 1968 in der Laudatio anlässlich der Verleihung des Nobelpreises für Medizin an Nirenberg, den Molekularbiologen Har Gobind Khorana und den Biochemiker Robert William Holley. Kaum fünf Jahre nach dem Poly-U-Experiment kannte man die genetischen Codes der 20 wichtigsten Aminosäuren.

Damit war der Weg für die Ära der Gentechnik geebnet: Ende der 1970er-Jahre begann man, Gene zu verändern, auszuschalten oder zwischen verschiedenen Arten zu übertragen. So konnte man zum Beispiel menschliches Insulin in einer Hamsterzelle herstellen. Heute eröffnen genmanipulierte Tiere und Pflanzen in Medizin, Pharmaindustrie, Landwirtschaft und Umwelttechnik ungeahnte Möglichkeiten. An Labormäusen etwa lassen sich menschliche Krankheiten wie Alzheimer erforschen, und Nutzpflanzen produzieren Stoffe, die für Schädlinge giftig sind.

Die Gesellschaft ist sich uneins, ob die Gentechnik ein universeller Problemlöser ist oder eher Pandoras Büchse. Leuchtende Schafe, genmanipulierte Tomaten und dieselproduzierende Bakterien wecken Ängste – Gentherapien gegen Krebs, Alzheimer und Parkinson hingegen große Hoffnungen. Eines ist klar: Diese noch junge Wissenschaft wird unser Leben und unser Wissen darüber grundlegend verändern.

Platz 3

Die Mondlandung

1969

In der Nacht zum 21. Juli 1969 war es vorbei mit der Ruhe im Mare Tranquillitatis. Mit den Worten „That’s one small step for a man, one giant step for mankind“ („Das ist ein kleiner Schritt für einen Menschen, aber ein großer Sprung für die Menschheit“) hatte der amerikanische Astronaut Neil Armstrong als erster Mensch seinen Fuß auf den Boden des Mondes gesetzt. Vorausgegangen war die außergewöhnlichste und teuerste Fernreise der Weltgeschichte. Eine dreistufige Saturn-V-Rakete (110 Meter hoch, 160 Millionen PS, 39 000 Kilometer pro Stunde im Maximum) war vier Tage vor dem historischen Schritt im Kennedy Space Center in Florida gestartet. Sie transportierte das Raumschiff Columbia samt seiner dreiköpfigen Besatzung nach einigen Erdumrundungen bis in einen Mondorbit. Die ausgebrannte letzte Stufe wird abgetrennt, Columbia beginnt den Mond zu umkreisen. Dann löst sich die Mondlandefähre Eagle mit Armstrong und Edwin „ Buzz“ Aldrin vom Raumschiff. Während Astronaut Michael Collins im Kommando-Modul zurückbleibt, landen Armstrong und Aldrin mit der Eagle in der Tiefebene „Meer der Ruhe“ und verlassen das Vehikel. Sie verweilen zweieinhalb Stunden auf dem Erdtrabanten. Armstrong steckt die US-Flagge in den Boden, die beiden Raumfahrer sammeln 22 Kilogramm Mondgestein ein und installieren einen Laserreflektor sowie ein Seismometer. 22 Stunden nach ihrer Landung auf der Mondoberfläche startet die Fähre wieder in Richtung Raumschiff, das unterdessen 25 Mal den Mond umkreist hatte. Es folgen das Andocken an die Columbia, dann der Rückflug zur Erde und die Landung im Pazifischen Ozean am 24. Juli.

Die Exkursion der beiden Astronauten war das Fernsehspektakel des Jahrhunderts: Schätzungsweise 530 Millionen Menschen schauten zu, wie Armstrong die amerikanische Flagge in den Mondboden rammte. Es folgten fünf weitere Flaggen und Mondausflüge. Die letzte Apollo-Fähre landete am 11. Dezember 1972.

Der wissenschaftliche Ertrag der Missionen war überschaubar, aber ohnehin Nebensache. Das Apollo-Programm galt inmitten des Kalten Krieges als nationale Prestigeangelegenheit, die jegliche heroische Anstrengung rechtfertigte. Beim Wettlauf um die Vorherrschaft im All hatten die Russen zuvor einen gewaltigen Vorsprung errungen: Sputnik 1 (1957) war der erste Satellit im All, Sputnik 2 transportierte kurz darauf mit der Hündin Laika den ersten Passagier in den Orbit. Luna 3 erkundete zwei Jahre später erstmals die Rückseite des Mondes, und 1961 umrundete der Kosmonaut Jurij Gagarin als erster Mensch im Raumschiff Wostok 1 die Erde. Den ersten Weltraumspaziergang unternahm Alexej Leonow von Bord der Woschod 2 aus (1965).

Die Tilgung dieser fortgesetzten Schmach war den Amerikanern damals schätzungsweise rund 25 Milliarden Dollar wert, was 100 bis 120 Milliarden Dollar heute entspricht. Die Losung hatte US-Präsident John F. Kennedy 1961 vor dem Kongress ausgegeben: „ Ich glaube, dass dieses Land sich das Ziel setzen sollte, noch innerhalb der nächsten zehn Jahre einen Menschen auf dem Mond landen zu lassen und ihn sicher zur Erde zurückzubringen. Kein anderes Weltraumprojekt wird die Menschheit in diesem Zeitraum mehr beeindrucken, keines auf Dauer wichtiger sein für die Erforschung des Weltraums. Und keines wird so schwierig und so kostspielig zu erreichen sein.“

Das Ziel wurde erreicht – und abgehakt: Seit 42 Jahren hat kein Mensch mehr den Mond betreten.

Platz 4

Die E-Mail

1971

Segen und Fluch des Büroalltags – beides verkörpert die E-Mail. Kein tagelanges Warten auf Briefpost mehr („Ist die Sendung vielleicht verloren gegangen?“), Absprachen über Kontinente hinweg innerhalb von Minuten, Terminvereinbarungen mit vielen Teilnehmern einer geplanten Gesprächsrunde ohne kompliziertes Hin und Her. Aber auch: Lawinen von E-Mails, die die Mailbox verstopfen und alle sofort beantwortet werden wollen, Spam (oft virenverseucht) und dreiste Werbung, die rund um die Uhr nerven.

Mit 120 E-Mails kann der Durchschnittsangestellte täglich rechnen, an die 20 Prozent sind trotz aller Filter Müll, heißt es im Radicati Email Statistics Report. In der Freizeit setzt sich der Terror auf Laptop und Smartphone fort. Der digitale Fortschritt drängt Papier, Kuvert und Briefmarke samt Postboten in das Telekommunikationsmuseum, wo schon längst Telegramm, Telex und Telefax modern. Gäbe es nicht noch reichlich konventionelle Reklame, Rechnungen, Behördenmitteilungen sowie abonnierte Zeitungen und Zeitschriften, bliebe der Briefkasten bald leer. Begonnen hat diese Revolution des kommunikativen Fernverkehrs vor 43 Jahren. Ort: das US-amerikanische Forschungsinstitut Bolt Beranek and Newman, eine Ausgründung des Massachusetts Institute of Technology, die maßgeblich an der Entwicklung des Internet-Vorläufers ArpaNet beteiligt war.

Bei seiner Arbeit an dem Betriebssystem Tenex fand Mitarbeiter Ray Tomlinson eine Möglichkeit, durch die Kombination eines Nachrichtenprogramms mit einem Datenübertragungsprotokoll Nachrichten an andere Rechner eines Netzwerks zu verschicken und in der Mailbox des Adressaten abzulegen. 1971 versandte Tomlinson erfolgreich die erste E-Mail an seine Kollegen und begründete damit die Tradition, dass die Adresszeile aus dem Benutzernamen des Empfängers, dem gewöhnungsbedürftigen @ sowie dem Hostnamen des Computers besteht.

Die E-Mail eroberte als Anwendung in kürzester Zeit das ArpaNet und setzte ihre Karriere dann im Internet fort. Auf diesem Weg erreichte 13 Jahre später erstmals eine E-Mail aus Cambridge, Massachusetts, einen deutschen Mailserver an der Universität Karlsruhe. Konkurrierende Systeme wie Novell oder BTX hatten gegenüber dem aufstrebenden Internet auf Dauer keine Chance.

Der elektronische Brief hat eine fantastische Erfolgsstory hinter sich: Weltweit sind derzeit 3,84 Milliarden E-Mail-Accounts angemeldet, drei Viertel davon befinden sich in privater Hand. Pro Sekunde werden weltweit 3,7 Millionen E-Mails verschickt, weit über 117 Billionen sind es pro Jahr. Das digitale Treiben geht deutlich zu Lasten des konventionellen Briefverkehrs: Das Büro für Technikfolgenabschätzung beim Deutschen Bundestag rechnet mit einer Abnahme der nationalen Briefpost bis zu einem knappen Drittel zwischen 2010 und 2020 – das wären am Ende rund fünf Milliarden Sendungen weniger pro Jahr.

Die weiteren Aussichten? Durchwachsen. Zunächst macht der E-Mail hierzulande ihre mangelnde Rechts- und Datensicherheit zu schaffen, zudem kapitulieren manche Unternehmen bereits vor der Flut und erproben Alternativen wie Wikis, Video-Chats oder Video-Konferenzen. Und die junge, mobile Generation zieht inzwischen SMS, Instant Messenger-Chats, Facebook und Twitter vor. E-Mail gilt dort längst als gestrig. Dass sie das Alter der herkömmlichen Briefpost erreichen wird, darf mithin bezweifelt werden: Die gibt es mittlerweile seit über 400 Jahren.

Platz 5

Der Mikroprozessor

1971

Gerade mal so groß wie ein Fingernagel ist der 4-Bit-Mikroprozessor 4004. Dennoch beherbergt der weltweit erste serienreife Mikrochip auf dieser Fläche 2300 Transistoren. Er ist mit 740 Kilohertz getaktet und kann bis zu 92 000 Befehle pro Sekunde verarbeiten. In seinem Geburtsjahr 1971 waren dies eindrucksvolle Werte.

Der Ein-Chip-Mikroprozessor ist Vorfahr und Herzstück der Computertechnik, die heute unsere Alltagszivilisation bis in die hintersten Winkel durchdringt. Ein berühmter Vorgänger im Arithmetik-Geschäft war der elektronische Universalrechner Eniac von 1946, der im Dienst der US-Armee stand, 27 Tonnen wog und mit seinen mehr als 15 000 Elektronenröhren auch nicht leistungsfähiger war als sein Urenkel 4004. Der war eine Schöpfung des damals noch jungen kalifornischen Halbleiterherstellers Intel. Das Unternehmen hatte sich ursprünglich auf die Produktion von Speicherbausteinen spezialisiert. Der erste „Computer auf einem Chip“ wurde im Auftrag der japanischen Unternehmen Electro Technical Industries und Nippon Calculating Machines entwickelt und sollte in einem Tischrechner der Marke Busicom Dienst tun. An der Arbeit waren maßgeblich die Intel-Ingenieure Federico Faggin (Design), Ted Hoff und Stanley Mazor beteiligt.

Noch 1971 erwarb Intel für 60 000 Dollar von den Japanern das Recht, den Mikroprozessor 4004 auch anderen Kunden für andere Produkte und Zwecke anbieten zu dürfen. Der erste Schritt in den Massenmarkt und auf dem Weg zum global führenden Halbleiterhersteller war hiermit getan.

Seitdem ging es noch schneller voran, als es sich Gordon Moore, einer der Intel-Gründer, 1965 hatte träumen lassen: Er vermutete, die Zahl der Transistoren auf einem Prozessor werde sich alle zwei Jahre verdoppeln. Das passiert seitdem sogar etwa alle 18 Monate. So beherbergt Intels neueste Rechnerarchitektur namens Haswell heute auf 177 Quadratmillimetern 1,6 Milliarden Transistoren, die in 22-Nanometer-Strukturen gefertigt werden. Im Intel 4004 waren die Strukturen des Mikroprozessors noch mehr als 450 Mal so breit – 10 Mikrometer.

Welches Geschäft hier winkte, konnte in den 1970er-Jahren keiner ahnen. 2013 wurden Prozessoren für Personal Computer von den Monopolisten Intel und AMD im Wert von 34 Milliarden Dollar umgesetzt. Fast 20 Milliarden erbrachten sogenannte Hauptprozessoren (Central Processing Units, CPU) für Tablets und Smartphones, größtenteils von anderen Herstellern gefertigt. Chips für rund 10 Milliarden Dollar fanden ihren Platz in Autos, medizinischen Geräten, Netzwerken und Consumer-Elektronik.

Platz 6

Die Plattentektonik-Theorie

1968

Alfred Wegener (1880 bis 1930) war seiner Zeit zu weit voraus. Dem damals vorherrschenden Weltbild, das von einer seit Urzeiten unveränderten Lage der Meere und Kontinente ausging, stellte der deutsche Forscher seine revolutionäre Hypothese der Kontinentalverschiebung entgegen – und erntete nichts als Spott. Indizien dafür fand er in der ähnlichen Geologie Südamerikas und Westafrikas, in tierischen und pflanzlichen Fossilien, in Vereisungsspuren, in Kohlevorkommen und in der Höhenverteilung auf der Erdoberfläche.

All dies waren für ihn Zeugnisse für die Existenz eines Urkontinents Pangäa und dessen Auseinanderbrechen in mehrere Erdteile vor rund 200 Millionen Jahren. Als Wegener diese Idee von der „Entstehung der Kontinente und Ozeane“ 1915 vorstellte, lästerte die Fachwelt über die „Fieberfantasien eines von Krustendrehkrankheit und Polarschubseuche schwer Befallenen“.

Doch welche Kräfte diese ungeheuren Erdbewegungen vorantreiben sollten, das konnte Wegener nicht zufriedenstellend erklären. Dies gelang erst Mitte der 1960er-Jahre, nachdem die Topografie des Meeresbodens gründlich erforscht, die mittelozeanischen Rücken entdeckt und das wahre Alter der Ozeane (höchstens 200 Millionen Jahre) festgestellt worden waren. Die Erkenntnisse mündeten 1968 in die Theorie der Plattentektonik, die Wegeners Ansatz vollendete.

Sieben große Lithosphären-Platten, die Kontinente und Ozeane tragen (wir befinden uns auf der Eurasischen Platte), und zahlreiche kleinere driften mal auseinander – wobei Magma aus dem Erdmantel aufsteigt und am Meeresboden austritt –, mal stoßen sie zusammen, mal schieben sie sich knirschend aneinander vorbei. Wo sich eine Platte unter eine andere schiebt (Subduktion), liegen Tiefseegräben vor den Küsten, bei Kollisionen hingegen wachsen Gebirgszüge in der Knautschzone, etwa die Alpen. Orchestriert wird das Geschehen von Erdbeben und Vulkanausbrüchen. Wo zwei Platten sich aneinander reiben, kommt es ebenfalls zu Erdbeben. In Gang gehalten wird der Prozess durch mächtige Ströme heißer und sich wieder abkühlender Materie, die langsam tief im Erdinneren zirkuliert. Ein Protagonist dieser neuen Idee der Plattentektonik war der französische Geologe Xavier Le Pichon. 1968 stellte er seine Theorie zur Entstehung der Erdbeben und zur Bewegung der Kontinentalplatten in den letzten 120 Millionen Jahren vor. John Tuzo Wilson, ein kanadischer Geowissenschaftler, erklärte im selben Jahr das Werden und Vergehen von Weltmeeren durch die Plattentektonik.

Diese Grundlagenforschung wird keineswegs nur um ihrer selbst willen betrieben: Sie schafft zum Beispiel die Voraussetzung für effiziente Frühwarnsysteme vor Tsunamis.

Platz 7

Die Ozonschicht

1974

Hautkrebs, Grauer Star, kollabierendes Immunsystem, Gen-Mutationen: Die UV-Strahlung der Sonne würde ungefiltert höchst verderblich wirken auf Mensch, Tier und Pflanze, bis hin zum pflanzlichen Plankton in den Weltmeeren. Nur eine dünne Ozonschicht in 20 bis 50 Kilometer Höhe schützt das Leben auf der Erde vor extremen Schäden. Dass dieser fragile Schutzschild gefährdet ist, legten der mexikanische Chemiker Mario José Molina und der US-amerikanische Forscher Sherwood Rowland 1974 in der Fachzeitschrift „Nature“ dar. Ihre These: Die Zunahme von menschengemachten Fluorkohlenwasserstoffen (FCKW) in der Atmosphäre führt zur Zerstörung der stratosphärischen Ozonschicht. Zusammen mit dem Niederländer Paul Josef Crutzen erhielten die Forscher für ihre Theorie 1995 den Chemie-Nobelpreis.

Keiner nahm damals die Erkenntnisse der Wissenschaftler sonderlich ernst, obwohl seit Beginn der 1980er-Jahre eine deutliche Abnahme des Ozongehalts über der Antarktis zu beobachten war. Wie in den Jahrzehnten zuvor wurden FCKW weiterhin weltweit und bedenkenlos als Kältemittel, als Treibgas, bei der Schaumstoffproduktion, zum Löschen sowie als Lösungs- und Reinigungsmittel eingesetzt.

Die volle Dramatik der Lage erfuhr die Weltöffentlichkeit erst 1985, als sich über der Antarktis jeden Winter das fortan berüchtigte Ozonloch auftat, das immer weiter wuchs und schließlich Umfänge bis fast 30 Millionen Quadratkilometer (2006) erreichte. Doch auch über der Arktis, vor der Haustür der Europäer, klafft inzwischen ein Ozonloch, wie Wissenschaftler vor drei Jahren feststellen mussten.

Abhilfe sollte das Montrealer Protokoll von 1987 bringen, in dem sich die Industriestaaten zum Verzicht auf die Produktion ozonzerstörender Gase verpflichteten. Vor allem dieser internationalen Einigung ist es zu verdanken, dass die Konzentration halogenierter Kohlenwasserstoffe in der Atmosphäre langsam wieder abnimmt.

2013 ist laut NASA das Ozonloch über der Antarktis im September und Oktober auf durchschnittlich 21 Millionen Quadratkilometer geschrumpft. Damit sei es wesentlich kleiner ausgefallen als in den vergangenen beiden Jahrzehnten, meldete die US-Luft- und Raumfahrtbehörde. Ob es sich irgendwann endgültig schließen wird, können die Experten noch nicht sagen.

Platz 8

Das Higgs-Boson

2012

Am 24. Juli 2012 wurde seine Existenz offiziell bestätigt: „ Das Higgs-Teilchen gilt als gefunden“, verkündete CERN-Direktor Rolf-Dieter Heuer. „Als Laie würde ich sagen: Wir haben es“, wie er vorsichtshalber einschränkte. Eine Sensation war es allemal, wenngleich sich die Wissenschaftler erst im März 2013 halbwegs sicher waren, dass die Daten zuverlässige Hinweise auf das lang gesuchte Higgs-Boson lieferten. Teilchenphysiker Heuer vergleicht die wissenschaftsgeschichtliche Bedeutung dieses Fundes mit der Entdeckung der DNA.

Für die Fahndung nach dem Elementarteilchen bedurfte es des leistungsfähigsten Teilchenbeschleunigers der Welt, des Large Hadron Colliders (LHC) am Genfer Forschungszentrum CERN. Im Inneren des gigantischen Teilchenkarussells (Umfang 27 Kilometer) lassen 9300 mit Helium auf Nullpunktnähe heruntergekühlte Magnete zwei Protonenstrahlen fast mit Lichtgeschwindigkeit im Vakuum kollidieren. Dabei ergeben sich gelegentlich – nur bei jedem billionsten Zusammenstoß – Zerfallsprodukte, die auf das Vorhandensein von Higgs-Teilchen schließen lassen. Eine drei Milliarden Euro teure Maschine, dazu die Arbeitskraft Tausender Physiker und ein Jahresetat von 900 Millionen Euro, hauptsächlich mit dem Ziel, ein Teilchen mit einer Masse von 126 Gigaelektronenvolt zu finden: Lohnt dieser gigantische Aufwand? Die Antwort lautet: Ja. Der experimentelle Nachweis des Higgs-Bosons hat das Standardmodell der Teilchenphysik vervollständigt, das schlüssig den Aufbau der Materie aus Elementarteilchen sowie die Kräfte erklärt, die sie miteinander verbinden.

Zwischen Theorie und Nachweis verging ein halbes Jahrhundert. 1964 hatte der englische Physiker Peter Higgs das sogenannte Higgs-Feld postuliert – ein unsichtbares Feld, das mit dem Urknall entstanden, den gesamten Kosmos durchdringen und den Dingen ihre Masse verleihen soll. Ohne dieses Feld würde das Standardmodell nicht funktionieren, geschweige denn ein einziges Atom zusammenhalten.

2013 wurden Higgs und dem Belgier François Englert für die theoretische Entwicklung des Higgs-Mechanismus der Nobelpreis für Physik zuerkannt. bild der wissenschaft hat das Ringen um den Nachweis des Teilchens ausführlich beschrieben (zum Beispiel in Heft 1/2012, „Die Weltmaschine kommt auf Touren“, in Heft 11/2012, „Higgs Higgs Hurra!“ und in Heft 6/2013, „Higgs und das Ende der Welt“).

Platz 9

Die Kosmische Hintergrundstrahlung 1976

Hatte ein Wackelkontakt oder eine kalte Lötstelle die Mikrowellenantenne so stark irritiert, dass sie ein ständiges Störgeräusch registrierte – ganz gleich, wie, wohin und wann man das 15 Meter lange Gerät himmelwärts ausrichtete? Lange konnten der Astrophysiker Arno Penzias und der Physiker Robert Wilson die Quelle dieses lästigen Grundrauschens nicht orten, obwohl es ihre Messungen massiv beeinträchtigte. Die beiden Wissenschaftler hatten 1964 in Diensten der Bell Laboratories in Holmdel, New Jersey, die Radiostrahlung der Milchstraße untersucht.

Die Ursache der Störung identifizierten James Peebles und Robert Dicke von der Princeton University, die sich zeitgleich mit der schon länger kursierenden Theorie der Kosmischen Hintergrundstrahlung beschäftigten und sich um einen Nachweis bemühten. Sie erkannten 1965, dass sich hinter dem rätselhaften Rauschen tatsächlich das „Nachleuchten“ des Urknalls verbarg. Penzias und Wilson hatten folglich ein starkes Indiz für die Urknalltheorie entdeckt. 1978 wurden sie dafür mit dem Physik-Nobelpreis ausgezeichnet.

Die Hintergrundstrahlung entstand rund 380 000 Jahre nach dem Urknall, als sich das Plasma aus Protonen, Neutronen und Elektronen soweit zu Atomen sortiert hatte, dass Photonen sich ungehindert ausbreiten konnten. Eben diese Photonen sind noch heute im gesamten Kosmos unterwegs und können als Mikrowellenstrahlung gemessen werden. Sie gibt Aufschluss über den frühen Zustand des Universums zu Zeiten der Rekombinations-Ära, über seine weitere expansive Entwicklung und über die Kräfte, die in ihm walten. Es handelt sich um eines der ältesten Phänomene, die der Mensch jemals gemessen hat.

Die Entdeckung der Hintergrundstrahlung war die Grundlage für weitere Forschungen. Der Satellit COBE (Cosmic Background Explorer) erlaubte weit genauere Messungen als jeder irdische Strahlendetektor. 1989 gestartet, lieferte er Datenmaterial für eine 360-Grad-Karte der Hintergrundstrahlung. 2001 setzte eine Delta-II-Rakete die US-Raumsonde WMAP (Wilkinson Microwave Anisotropy Probe) aus, um die Temperatur-Fluktuationen im Kosmos aufzuzeichnen. Sie gestatten Rückschlüsse auf die Materieverteilung – Atome, Dunkle Materie, Dunkle Energie – sowie auf die Geometrie des Universums.

Eine noch genauere Kartierung der Kosmischen Hintergrundstrahlung erbrachte das Planck-Teleskop, eine Raumsonde der ESA, die 2009 in den Weltraum reiste. Der Satellit registrierte ebenfalls Temperaturschwankungen im Bereich von einem Millionstel Kelvin – aber mit rund zehnmal so hoher Auflösung und Empfindlichkeit wie WMAP.

Die äußerst geringen Temperaturunterschiede innerhalb der an sich sehr gleichmäßigen Strahlung lassen auf Dichteschwankungen im noch jungen Universum schließen, obwohl dieses sich im Verlauf der vergangenen 13,8 Milliarden Jahre seit der Rekombination von ursprünglich 3000 Grad Celsius plus auf nunmehr 270 Grad minus abgekühlt hat. Diese Dichteschwankungen haben zu Materieansammlungen und schließlich zur Bildung von Sternen und Galaxien geführt.

Platz 10

Das Immunsystem

1976

Ohne unser Immunsystem wären wir den Angriffen von Viren und Bakterien schutzlos ausgeliefert. Der Einfallsreichtum des mikrobiologischen Heeres scheint keine Grenzen zu kennen: In nahezu unermesslicher Vielfalt und in ständig wechselnder Form attackieren uns die unsichtbaren Aggressoren – um uns zu schwächen, krank zu machen und schlimmstenfalls sogar zu töten.

Vergleichsweise knapp bemessen ist hingegen der Umfang des genetischen Waffenarsenals, mit dem wir uns gegen die Eindringlinge verteidigen können: Die Abwehrzellen, die sogenannten B-Lymphozyten, haben nur wenige Gene, die ihnen zur Produktion von Antikörpern zur Verfügung stehen. Wie schaffen sie es, mit dem beschränkten Inventar dennoch stets die richtige Waffe zur Hand zu haben?

Des Rätsels Lösung lieferte 1976 Susumu Tonegawa am Basler Institut für Immunologie. Der Japaner entdeckte einen völlig neuartigen Mechanismus, mit dem aus einer geringen Menge genetischer Information unzählige Produkte hervorgebracht werden können: die sogenannte somatische Rekombination, die Neuordnung genetischen Materials in heranreifenden Lymphozyten. Rund 100 Gen-Abschnitte können so viele Milliarden Antikörperarten erzeugen. In anderen Körperzellen gibt es eine solche Umsortierung nicht – eine Rekombination findet jedoch auch bei der sogenannten Meiose statt, bei der Ei- und Spermazellen gebildet werden.

Die Entdeckung der „genetischen Grundlage für das Entstehen des Variationsreichtums der Antikörper“ trug Tonegawa 1987 den Nobelpreis für Medizin ein. Seine Forschungsergebnisse ermöglichen die Entwicklung wirksamerer Impfmethoden. Sie liefern aber auch die Kenntnisse, um unerwünschte Immunreaktionen zu unterdrücken. •

von Hans Schmidt

Die 50 Highlights Das Ranking der bdw-Experten

1964 erschien bild der wissenschaft zum ersten Mal. Seither ist Wegweisendes in Forschung und Technik geschehen. Was war das Wichtigste? Bei einer großen Umfrage haben Experten und Leser die 50 herausragenden Ereignisse, Entdeckungen sowie Erfindungen ermittelt, die bis heute unser Denken und unseren Alltag prägen.

Seite 10 Zurück zur Öffentlichen Wissenschaft

Strahlkraft und Faszination der Forschung schwinden im öffentlichen Ansehen. Dagegen muss man angehen, denn das schadet jedem.

Seite 12 Das Web schlägt alle

Die 50 folgenreichsten Highlights aus Forschung und Technik der vergangenen 50 Jahre. Das jüngste stammt von 2012!

Seite 15 Was die Welt veränderte

Zum Nachlesen, Erinnern und Bewusstmachen: Die ersten 10 Highlights und ihre überragende Rolle, im Detail vorgestellt.

Anzeige

Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Ein|zel|stim|me  〈f. 19; Mus.〉 die einzelne Stimme (im Chor, in der Partitur)

Bohr|ham|mer  〈m. 3u〉 Drucklufthammer, der im Bergbau Bohrlöcher für die Schießarbeit herstellt

Kä|no|phy|ti|kum  〈n.; –s; unz.; Geol.〉 an das Mesophytikum anschließende u. mit dem Beginn der oberen Unterkreide zusammenfallende Neuzeit der pflanzlichen Entwicklung; Sy Neophytikum … mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige