Was taugt der Wetterbericht ? - wissenschaft.de
Anzeige
Anzeige

Allgemein

Was taugt der Wetterbericht ?

Der Kampf gegen das Chaos in der Atmosphäre. Beim Wetter beweist die Natur täglich aufs neue, wie ungern sie sich in die Karten schauen läßt. Jeden Fortschritt in der Vorhersage von Sturm, Regen und Sonnenschein müssen die Meteorologen mit einem immensen Aufwand erkaufen. Die perfekte Wetterprognose wird es vermutlich niemals geben.

Freitag, 3. Oktober 1997: In Stuttgart feiern mehr als 200000 Menschen mit einem großen Bürgerfest den Tag der Deutschen Einheit. Über der Stadt lacht die Sonne von einem fast makellos blauen Himmel. Eigentlich hätte an diesem Tag das stürmische Tief „Rita“ sein Unwesen über der schwäbischen Metropole treiben sollen. Noch tags zuvor hatten die Meteorologen einen wolkenverhangenen Himmel und kühles Schauerwetter prophezeit. Doch „Rita“ hielt sich nicht an die Prognose. Kurzerhand änderte der Sturmwirbel seinen Kurs, tobte sich ein paar hundert Kilometer weiter östlich aus – und brockte so den „Wetterfröschen“ eine klassische Fehlvorhersage ein.

„Eine perfekte Wettervorhersage halte ich in absehbarer Zeit für ausgeschlossen“, meint Prof. Horst Malberg vom Institut für Meteorologie der Freien Universität Berlin. Der Grund: Die Atmosphäre steht mitunter „auf der Kippe“ zwischen verschiedenen Entwicklungsmöglichkeiten. Schon der berühmte Flügelschlag eines Schmetterlings oder eine einzelne Wolke kann in diesem Fall darüber entscheiden, wie sich das Wetter weiter entwickeln wird. Der amerikanische Meteorologe Edward Lorenz hat dies schon in den sechziger Jahren erkannt – und daraus die Chaostheorie entwickelt.

Zumindest für einige Tage im voraus meinen die Meteorologen den Wechsel von Hoch- und Tiefdruckgebieten, Regenfronten und Schönwetterperioden aber recht gut „im Griff“ zu haben. Die Trefferquote der Vorhersagen für den nächsten Tag liege im Schnitt bei „weit über 90 Prozent“, verlautet vom Deutschen Wetterdienst in Offenbach. Detaillierte Angaben darüber, wie sich diese Prozentzahl im Verlauf der vergangenen Monate, Jahre und Jahrzehnte verändert hat, sind den Offenbachern jedoch nicht zu entlocken. „Man kann Vorhersagen, wie sie vor einigen Jahren gemacht wurden, nicht mit den heute zur Verfügung stehenden Methoden vergleichen“, gibt Pressesprecher Meinhard Giebel zu bedenken. Die Zahlen wären daher „irreführend“.

Der Berliner Meteorologie-Professor Horst Malberg und seine Mitarbeiter haben bis Ende 1991 mehr als 20 Jahre lang täglich selbst eine Wetterprognose für die Stadt an der Spree erstellt. Sie nutzten dazu Daten, die vom Deutschen Wetterdienst geliefert wurden – und bewerteten die Qualität ihrer Prognosen für Niederschlag, Temperatur, Bewölkung und Windstärke anhand einer Skala von 0 bis 100 Prozentpunkten. Das Ergebnis: Zwischen 1971 und 1991 hat sich die Trefferquote von ein- bis zweitägigen Vorhersagen kaum verbessert. Sie kletterte auf der Skala der Berliner Wetterforscher von knapp 84 auf etwa 86 Prozent. „Dies zeigt, wie mühsam der Atmosphäre trotz aller technisch-wissenschaftlichen Fortschritte jeder einzelne Prozentpunkt abgerungen werden muß“, sagt Malberg. Den heute vom Deutschen Wetterdienst offiziell genannten Wert von durchschnittlich weit über 90 Prozent hält er deshalb für unrealistisch hoch.

Anzeige

Daß einige Prozentpunkte mehr oder weniger durchaus von Bedeutung sind, macht ein verblüffender Vergleich deutlich: Schon mit der simplen Vorhersage „Das Wetter morgen wird wie das Wetter heute“ läßt sich mit dem verwendeten Prüfschema mühelos eine Trefferquote von 78 Prozent erreichen.

Intern bewerten die Meteorologen beim Deutschen Wetterdienst ihre Vorhersagen seit vielen Jahren nach einem objektiven statistischen System, das von der Meteorologischen Weltorganisation WMO empfohlen wird, berichtet Konrad Balzer, der „Gütekontrolleur“ des Deutschen Wetterdienstes in Potsdam. Sie ermitteln eine statistische Verteilung der Abweichungen zwischen vorhergesagten und eingetretenen Wetterelementen und berechnen daraus die „mittleren quadratischen Fehler“. Diese werden mit Referenzvorhersagen verglichen, die jeder selbst erstellen kann, wenn er etwa davon ausgeht, daß sich das Wetter von heute auf morgen nicht ändert oder sich über mehrere Tage hinweg stets dem jahreszeitlichen Mittel angleicht.

Die Windrichtung läßt sich demnach heute bis zu zwölf Tage im voraus verläßlicher vorhersagen als mit einfachen Referenzprognosen. Die Vorhersage der Temperatur verliert bei maximal zehn, die der Niederschlagswahrscheinlichkeit bei sieben Tagen ihren Sinn. Für Nebel und Windstärke liegt die Grenze der Vorhersagbarkeit derzeit bei etwa fünf Tagen.

„Die Qualität der Vorhersagen hat sich in den vergangenen Jahrzehnten eindeutig verbessert“, sagt Jörg Kachelmann, Meteorologe aus der Schweiz und „Wetterfrosch“ der ARD. Wo früher ein pauschales „heiter bis wolkig“ herhalten mußte, könne man heute sehr viel genauere Aussagen machen – zum Beispiel, in welchen Regionen sich die Sonne länger blicken läßt und wo sie sich eher rar macht. Deutliche Fortschritte – darin sind sich die Experten einig – gab es auch bei den mittelfristigen Vorhersagen. Während Prognosen vor 10 bis 20 Jahren bestenfalls für zwei Tage Bestand hatten, erstrecken sie sich heute über vier bis zehn Tage. Beim Deutschen Wetterdienst sind Vorhersagen für eine Woche mittlerweile Routine. Mit jedem Tag, den sich die Prognose weiter in die Zukunft vorwagt, nimmt allerdings die Treffsicherheit deutlich ab.

Daß die Wetterforscher mit ihren Prognosen trotz weltumspannender Satellitensysteme, ausgefeilter Rechenmodelle und modernster Computertechnik hin und wieder auf der Nase landen, kann viele Ursachen haben: eine falsche Interpretation der vom Rechner ausgespuckten Daten durch die Meteorologen oder Rechenmodelle, die mit bestimmten Wetterlagen und Jahreszeiten besonders große Schwierigkeiten haben. „Ärger gibt es meist dann, wenn Instabilitäten in der Atmosphäre entstehen und sich die Großwetterlage umstellt“, erklärt Prof. Klaus Fraedrich vom Meteorologischen Institut der Universität Hamburg. Lag beispielsweise tage- oder wochenlang ein stabiles Hoch über Europa und aus einer unscheinbaren Wolke entwickelt sich plötzlich ein neues Tief, kann dies alle Prognosen über den Haufen werfen.

Im Frühling hält das sprichwörtliche launische Aprilwetter auch die professionellen Wetterpropheten oft zum Narren. Insbesondere die Temperaturen sind es, die ihnen von März bis Juni die Statistik verderben. „Die Lufttemperatur reagiert in den Übergangsjahreszeiten besonders empfindlich auf die Sonnenstrahlung“, erklärt der Potsdamer Meteorologe Konrad Balzer. Wie hoch das Quecksilber am Mittag klettert, hängt wesentlich stärker als im Sommer oder Winter davon ab, wie viele Stunden die Sonne hinter den Wolken hervorschaut.

Zwischen Mai und August weist die Trefferquote der Regenprognosen ein deutliches „Sommerloch“ auf. Der Grund: In der warmen Jahreszeit fällt der Regen häufig aus Schauer- oder Gewitterwolken, die ihre Schleusen nur über eng begrenzten Landstrichen öffnen, während es wenige Kilometer weiter trocken bleibt. „Da ist sehr viel Zufall im Spiel“, sagt Konrad Balzer. So sehen die Meteorologen eine Schauerwolke zwar auf ihren Radarschirmen aufziehen. Wo sie sich schließlich ausregnet, können sie aber nicht genau vorhersehen. In Herbst und Winter ziehen Regen und Schnee dagegen meist mit ausgedehnten Warm- oder Kaltfronten ins Land, mit denen die Modelle weitaus besser zurechtkommen.

Um die Zuverlässigkeit der Vorhersagen für kleinräumige Gebiete zu verbessern, setzt man beim Deutschen Wetterdienst vor allem auf immer feinere Rechenmodelle. Ein „Lokal-Modell“, dessen Gitterpunkte nur drei Kilometer auseinander liegen, geht voraussichtlich noch in diesem Jahr in die Testphase. Auch die Maschen des globalen Modells sollen in den nächsten Jahren deutlich enger geknüpft werden. Möglich macht dies ein neuer Superrechner – eine CRAY T3E, die seit einigen Monaten in Offenbach ihren Dienst tut. Mit einer Rechenleistung von mehr als einer Billion Operationen pro Sekunde ist der „Teraflop-Rechner“ rund tausendmal schneller als der bisherige Wettercomputer.

Nebel, Wolken und Gewitter, für die die derzeitigen Modelle zu grob und deshalb weitgehend blind sind, sollen sich damit künftig präziser als bisher vorhersagen lassen. Davon würden auch sogenannte Kürzestfrist-Vorhersagen profitieren. „Sie haben beispielsweise das Ziel, frühzeitig vor plötzlich heraufziehenden Wetterextremen wie Sturmböen oder Hagelunwettern zu warnen“, erläutert Konrad Balzer. „Auf diesem Gebiet gibt es bislang kaum Fortschritte“, beklagt er.

ARD-Meteorologe Jörg Kachelmann ist skeptisch, ob engmaschigere Rechenmodelle allein ausreichen, um zu genaueren Wetterprognosen zu kommen. Eine gute Qualität der Vorhersagen setze in erster Linie ein möglichst dichtes Netz an Meßstationen voraus, sagt er. Kachelmanns Meteorologen-Team im schweizerischen Gais, das die meisten seiner Rohdaten aus Berechnungen verschiedener Wetterdienste bezieht, leistet sich deshalb rund 80 eigene Beobachtungsstationen.

Der Hamburger Meteorologe Klaus Fraedrich, der sich seit vielen Jahren mit Vorhersagemodellen beschäftigt, sieht vor allem in einer Kombination der klassischen Rechenmodelle mit neuartigen Methoden – wie Neuronalen Netzen – eine Möglichkeit, die Prognosen zu verbessern. Als erfolgversprechend gelten unter anderem Ensemblevorhersagen. „Das Ziel dieser Methode ist es, den Fehler, der in jeder Vorhersage steckt, herauszufinden und anzugeben“, erklärt Fraedrich. Der Computer berechnet dazu statt einer einzigen Prognose eine Vielzahl von Prognosen mit jeweils geringfügig veränderten Anfangswerten. Das Resultat sind beispielsweise Angaben, mit welcher Wahrscheinlichkeit es an einem bestimmten Ort und Tag regnet oder stürmt. Dies gibt den Meteorologen und Nutzern wertvolle Hinweise auf die Verläßlichkeit der Prognosen an die Hand.

Langfristige Prognosen für Monate oder gar ganze Jahreszeiten stehen auf der Wunschliste vieler Wetterforscher ganz oben. Weltweit, etwa am Europäischen Zentrum für Mittelfristige Wettervorhersagen in Reading bei London und an der FU Berlin, basteln sie an tauglichen Methoden. Diese müssen vor allem den Einfluß von Meeresströmungen und -temperaturen in die Vorhersagemodelle mit einbeziehen.

„Mit präzisen Vorhersagen für einzelne Tage ist allerdings bei etwa zehn Tagen Schluß“, sagt Klaus Fraedrich. Das chaotische Verhalten der Atmosphäre gewinnt dann mehr und mehr an Einfluß auf das Wettergeschehen. Je weiter eine Prognose in die Zukunft reicht, desto stärker machen sich unvermeidliche Fehler in den Anfangswerten bemerkbar – und wachsen sich unweigerlich so weit aus, daß jede detaillierte Vorhersage unbrauchbar wird.

Künftige Jahreszeitenvorhersagen können daher allenfalls grobe Trends prophezeien – beispielsweise ob der kommende Februar besonders schneereich und kalt ausfallen oder der Frühling später als gewohnt Einzug halten wird. „Derzeit sind wir aber von zuverlässigen Langfristprognosen noch weit entfernt“, meint Konrad Balzer. Nur teilweise erfolgreich seien zum Beispiel die Dreitages-Prognosen, die an der FU Berlin von Horst Malberg und Rainer Dettmann erstellt werden. Aus der Druckverteilung über Westeuropa und dem Nordatlantik bei Island schließen die beiden Meteorologen auf die Witterung in Mitteleuropa einige Monate später. Im Oktober haben sie so übrigens einen kalten Dezember und Januar vorhergesagt.

In Australien und Nordamerika werden zum Teil schon seit vielen Jahren Witterungsprognosen für mehrere Monate veröffentlicht. Die dortigen Meteorologen können dabei auf einen mächtigen Verbündeten setzen: El Niño, der im Rhythmus von einigen Jahren für außergewöhnlich hohe Oberflächentemperaturen im tropischen Pazifik sorgt. Er beeinflußt die Witterung in der Region um den Pazifischen Ozean sehr stark – und erleichtert so Langfristprognosen. „Auf die Witterung in Europa hat El Niño jedoch kaum nachweisbaren Einfluß“, sagt Klaus Fraedrich. Hier regiert die unberechenbare Wetterküche über dem Nordatlantik. Ob sich deren Einfluß jemals in Langfrist-Vorhersagemodelle zwängen läßt, vermag derzeit kein Experte zu sagen.

Mittwoch, 29. Oktober 1997: Ein wolkenloser Himmel spannt sich über Stuttgart, ein eisiger Ostwind läßt frösteln. Die „Wetterfrösche“ haben einen Volltreffer gelandet. Eine zugegebenermaßen recht unwissenschaftliche Prüfung per Auge und Thermometerskala haben die Vorhersagen im Oktober weitgehend bestanden. Nur an wenigen Tagen hielt sich das Wetter nicht an die Prognosen – die doch besser als ihr Ruf zu sein scheinen.

Datenflut, Rechenleistung und Erfahrung

Die Meteorologen beim Deutschen Wetterdienst müssen einen gewaltigen Aufwand treiben, bis eine Wettervorhersage steht.

Mehr als 20000 Wettermeldungen aus allen Teilen der Erde laufen stündlich über den Ticker. Sie stammen von rund 10000 festen Wetterstationen, über 800 Driftbojen sowie mehreren tausend Schiffen und Flugzeugen, wo Wetterdaten wie Temperatur, Wind, Niederschlag und Sonnenschein im Stundenrhythmus registriert, nach einem einheitlichen Code verschlüsselt und über das globale Wetter-Fernmeldenetz verbreitet werden. Ergänzt werden die Daten durch Messungen von Wetterballons, Regenradarstationen, Blitzortungsanlagen und durch die scharfen „Augen“ von Satelliten. Zwei amerikanische und ein russischer Wettersatellit umkreisen die Erde in einigen hundert Kilometer Höhe auf polaren Bahnen und überqueren zweimal täglich jeden Ort der Erde. Der wichtigste Späher für das Wetter hierzulande „steht“ in rund 36000 Kilometer Höhe über dem Äquator vor Westafrika: Der europäische Wettersatellit Meteosat sendet alle 30 Minuten Fotos von der Wetterlage über Europa, Afrika und dem Atlantik zur Erde. Infrarotsensoren messen zudem die Luftfeuchtigkeit und die Temperatur an der Meeresoberfläche und an den Wolkenobergrenzen. Eine zweite Generation von Meteosat-Wettersatelliten soll nach dem Jahr 2000 sogar jede Viertelstunde noch detailreichere Aufnahmen liefern. Im Rechenzentrum des Deutschen Wetterdienstes werden die Wetterdaten entschlüsselt, geprüft und für Modellrechnungen aufbereitet. Die Rechenmodelle überziehen die Erde mit einem Gitter aus zahlreichen fiktiven Punkten. Um auch Vorgänge in höheren Luftschichten zu berücksichtigen, werden mehrere Gitter übereinandergelegt. Ein Großrechner ermittelt aus den Ausgangsdaten die Wetterentwicklung an jedem einzelnen Gitterpunkt. Je detaillierter das Wettergeschehen für relativ kleinräumige Gebiete berechnet werden soll, um so dichter muß das Modell-Gitternetz geknüpft werden. Die Meteorologen in Offenbach benutzen derzeit drei Modelle. Das „Global-Modell“ umfaßt die gesamte Erdkugel und enthält insgesamt 460000 Punkte, die jeweils 200 Kilometer voneinander entfernt liegen. Bis zu sieben Tage im voraus wird damit das Wetter berechnet. Darin eingepaßt ist ein „Europa-Modell“, das ein Gebiet von Nordafrika bis zum Eismeer, vom Atlantik bis zum Orient einschließt und dessen einzelne Gitterpunkte 50 Kilometer auseinander liegen. Das Wetter läßt sich damit für drei Tage im voraus berechnen. Seit 1993 ist zusätzlich ein noch feinmaschigeres „Deutschland-Modell“ mit einer Maschenweite von 14 Kilometern im Einsatz, das für besonders präzise Zwei- tages-Prognosen verwendet wird. Wenn der Computer seine Berechnungen abgeschlossen hat, beginnt die Hauptarbeit für die Meteorologen: Sie setzen – mit ihrer Berufserfahrung und mit der Unterstützung durch „automatische Interpretationshilfen“ – die vom Rechner erstellten Vorhersagekarten in brauchbare Vorhersagen für Fernsehen, Radio und Zeitungen um.

Ralf Butscher

Anzeige

bild der wissenschaft | Aktuelles Heft

Anzeige

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Ko|kos|pal|me  〈f. 19; Bot.〉 20–30 m hohe Palme mit an der Basis etwas angeschwollenem Stamm u. an der Spitze 4–6 m langen, steifen Fliederblättern: Cocos nucifera

Hip|po|kra|ti|ker  〈m. 3〉 Anhänger des Hippokrates [nach dem grch. Arzt Hippokrates, ... mehr

Fahrt|rich|tungs|an|zei|ger  〈m. 3; Kfz〉 Richtungsänderungen anzeigendes Blinklicht an Fahrzeugen; Sy Blinker ( ... mehr

» im Lexikon stöbern
Anzeige
Anzeige