Wetter ist Physik – und ein bisschen Statistik
Eine Wettervorhersage ist keine Glaskugel, sondern das Ergebnis gewaltiger Rechenleistung. In modernen Wetterzentren werden jede Stunde Millionen Messwerte aus aller Welt gesammelt: Temperatur, Luftdruck, Feuchte, Windrichtung und Windgeschwindigkeit, Niederschlag, Bewölkung und vieles mehr.
Diese Daten stammen von Wetterstationen, Satelliten, Flugzeugen, Ballons und Bojen. Sie bilden die Ausgangslage – den sogenannten Analysezustand – mit dem jedes Wettermodell seine Berechnung startet.
Je genauer dieser Anfangszustand erfasst wird, desto verlässlicher ist die Prognose. Schon kleinste Ungenauigkeiten können sich mit der Zeit potenzieren, weshalb Meteorologen auch von der chaotischen Natur der Atmosphäre sprechen.
Die Grundlage: numerische Wettervorhersagemodelle
Ein Wettermodell beschreibt die Atmosphäre durch physikalische Gleichungen – genauer gesagt durch die Navier-Stokes-Gleichungen, gekoppelt mit thermodynamischen und Strahlungsprozessen. Diese Gleichungen lassen sich nur näherungsweise lösen, und das erfordert enorme Rechenkapazität.
Damit die Modelle rechnen können, wird die Erde in kleine Würfel, sogenannte Gitterzellen, unterteilt. Für jede Zelle berechnet der Computer, wie sich Temperatur, Druck, Wind und Feuchte über die Zeit verändern. Je kleiner die Gitterzellen, desto feiner die Auflösung – aber desto größer auch der Rechenaufwand.
Das deutsche ICON-Modell
Das wichtigste Modell des Deutschen Wetterdienstes (DWD) ist ICON – das „ICOsahedral Nonhydrostatic Model“. Es läuft in mehreren Varianten:
-
ICON-D2: Hochauflösendes Kurzfristmodell für Deutschland und Mitteleuropa, mit einer Gitterweite von nur etwa 2,2 Kilometern. Es liefert Vorhersagen für die nächsten 48 Stunden und wird mehrmals täglich aktualisiert.
-
ICON-EU: Europäischer Ausschnitt mit etwa 7 Kilometern Auflösung, Vorhersagedauer bis 5 Tage.
-
ICON-Global: Weltweite Berechnung mit rund 13 Kilometern Auflösung, bis zu 7 Tage im Voraus.
Das Besondere an ICON ist seine Kugelkonstruktion aus gleichmäßigen Dreiecken, was die Berechnung auf der Erdoberfläche besonders effizient macht. Dadurch kann das Modell großräumige und lokale Prozesse besser miteinander verknüpfen – vom Jetstream über die Alpenströmung bis hin zur Gewitterzelle im Schwarzwald.
Das amerikanische GFS-Modell
Das Global Forecast System (GFS) stammt vom US National Weather Service (NOAA). Es ist das am weitesten verbreitete Modell und bildet die Grundlage vieler internationaler Wetterdienste und Apps.
GFS deckt die gesamte Erde mit etwa 13 Kilometern Auflösung ab und rechnet bis zu 16 Tage im Voraus. Die Aktualisierung erfolgt viermal täglich, und die Daten sind frei zugänglich – daher nutzen auch viele private Wetterseiten, darunter auch „Blick aufs Wetter“, die offenen GFS-Daten als Ergänzung zu europäischen Modellen.
Der Vorteil von GFS ist seine globale Perspektive – der Nachteil liegt in der geringeren Detailtiefe: Kleine lokale Phänomene wie Stauniederschläge im Schwarzwald oder Nebelfelder im Rheintal lassen sich damit nur grob erfassen.
Modelle vergleichen – warum Prognosen sich unterscheiden
Viele Nutzer wundern sich, warum verschiedene Wetterseiten unterschiedliche Vorhersagen anzeigen. Das liegt nicht an „Fehlern“, sondern an unterschiedlichen Modellansätzen und Initialisierungen.
Beispiel: ICON-D2 hat den Vorteil der hohen Auflösung und erfasst lokale Effekte besser, während GFS großräumige Trends stabiler abbildet. Darum kombinieren Meteorologen oft mehrere Modelle und berechnen Ensembles – also viele leicht unterschiedliche Simulationen, um eine Bandbreite möglicher Entwicklungen zu erhalten. Je enger die Modelle beieinander liegen, desto höher ist die Prognosesicherheit.
Vom Modell zur Karte – wie die Daten visualisiert werden
Sobald die Modellläufe abgeschlossen sind, entstehen daraus Millionen Zahlenwerte. Diese werden in farbigen Karten, Diagrammen und Zeitreihen dargestellt: Temperatur, Niederschlag, Wind, Wolken, Schneefallgrenze, Luftdruck. Solche Karten werden automatisiert erstellt und anschließend von Meteorologen interpretiert – der Schritt vom numerischen Modell zur meteorologischen Prognose.
Bei „Blick aufs Wetter“ fließen ICON- und GFS-Daten in eigene Diagramme und Textprognosen ein, um regionale Besonderheiten sichtbar zu machen – etwa lokale Windströmungen, Inversionslagen oder Bergland-Schneefall.
Wie zuverlässig sind Wettervorhersagen?
Kurzfristprognosen bis 48 Stunden sind heute sehr genau – etwa 90 Prozent Trefferquote bei Temperatur und Wind. Mittelfristprognosen (3 bis 7 Tage) bleiben zuverlässig für Großwetterlagen, aber Details wie Ort und Zeitpunkt von Regen ändern sich oft. Langfristprognosen über 10 Tage hinaus zeigen eher Tendenzen als konkrete Werte.
Darum gilt: Je näher der Termin, desto präziser das Wetter.