De wetenschap van het weer voorspellen kent een lange geschiedenis. Al in 650 v. Chr. maakten de Babyloniërs gebruik van wolkenpatronen en astrologie om voorspellingen te doen. Maar pas in de negentiende eeuw kwam weersvoorspelling op gang.
Spoel de tijd 150 jaar vooruit en de wetenschap van de weersvoorspelling is onherkenbaar veranderd. Dankzij supercomputers is het vandaag de dag mogelijk vele malen nauwkeuriger voorspellingen te doen over het weer. Met de kennis, en vooral de data, van nu kunnen deze krachtige computers slimme uitspraken doen over het weer van morgen, overmorgen en wie weet zelfs volgende maand.
Snellere, betere resultaten
Om hun werk te kunnen doen, hebben supercomputers data nodig. Zo ook voor weersvoorspellingen. De data die hiervoor worden gebruikt, zijn afkomstig van verschillende bronnen, geleverd door satellieten, weerstations, ballonnen, vliegtuigen en zelfs schepen. Daarnaast hebben weersvoorspellers toegang tot het Global Telecommunication System (GTS), dat vier keer per dag data verzamelt en verspreidt met tussenpozen van zes uur.
De data die door deze bronnen worden geleverd, kunnen uiteenlopen van vijfhonderd gigabyte tot één terabyte. Voor deze data zijn te benutten, ondergaan ze een kwaliteitscontrole. Zodra dat proces voltooid is, maken wiskundige modellen de voorspellingen. Deze modellen – al in gebruik sinds de negentiende eeuw – zijn vergelijkingen die de staat, beweging en tijdsevolutie van atmosferische parameters zoals wind en temperatuur beschrijven.
Ongekend sterke rekenkracht
Om deze vergelijkingen in nauwkeurige voorspellingen om te zetten, is rekenkracht vereist. Als we een groot land verdelen in een netwerk van blokken van tien kilometer, dan is een significant niveau van rekencapaciteit nodig om binnen elk blok plaatselijke voorspellingen te doen. Maar voorspellingen over kleinere blokken doen, is pas echt een uitdaging. Onweersbuien en kleinschalige effecten zijn nauw verbonden met het lokale weer. Met een netwerk dat te grootschalig is voor het kleine blok zijn deze effecten gemakkelijk over het hoofd te zien. Het is te vergelijken met een visser; om kleine visjes te vangen, is een fijner net nodig.
Voor een kleinere oppervlakte is buitengewoon veel rekenkracht nodig. Er kunnen bijvoorbeeld honderd computernodes nodig zijn om een voorspelling te doen op een raster van tienkilometerblokken. Maar een voorspelling op een raster van vijf kilometer van hetzelfde gebied, vereist een zestien keer hogere rekenkracht. Voor een nog geconcentreerder gebied van 2,5 km zou de rekenkracht nog eens met een factor zestien moeten worden verhoogd.
Ai als oplossing
Vanwege de hoeveelheden rekenkracht die voor deze berekeningen nodig zijn, kijken wetenschappers naar technologieën artificiële intelligentie (ai). In plaats van krachtige berekeningen te gebruiken om het weer te voorspellen op basis van de huidige omstandigheden, bekijken ai-systemen data uit het verleden. Dat heeft een aanzienlijke invloed op de weersvoorspellingen. Zo heeft het Meteorologisch Bureau van het Verenigd Koninkrijk onlangs een proef uitgevoerd met ai-technologie om overstromingen en stormen te voorspellen. Op basis van radarkaarten van 2016 tot 2018 kon het systeem in bijna negentig procent van de gevallen de neerslagpatronen voor 2019 accuraat voorspellen. Dankzij de technologische vooruitgang is de vierdaagse voorspelling nu even accuraat als de eendaagse voorspelling dertig jaar geleden was.
Niet-lineair
Nieuwe technologieën luiden een tijdperk van nauwkeurigere weersvoorspellingen in. Desondanks zullen langetermijnvoorspellingen over het weer nooit honderd procent nauwkeurig zijn. Dat komt omdat de vergelijkingen die worden gebruikt om weersvoorspellingen te doen niet-lineair zijn – er zit een bepaalde ongeregeldheid in.
Daarnaast loopt de wetenschap van weersvoorspelling relatief gezien achter. Ook al verdubbelt technologie de rekenkracht ongeveer elke twee jaar, het duurt nog altijd langer voor de wetenschap deze kracht ook daadwerkelijk goed gebruikt in hun kennis en onderzoeken.
Toch zijn weersvoorspellingen dankzij de rekenkracht van nu enorm verbeterd. Om een voorbeeld te geven van het verschil tussen vroeger en nu: een weermodel dat in de jaren zestig op computersystemen zeshonderd jaar zou hebben geduurd, duurt nu slechts vijftien minuten op een standaard-server.
Als de rekenkracht de komende jaren vordert, evenals de wetenschappelijke kennis over weerpatronen, zijn nog nauwkeurigere voorspellingen mogelijk. Dit is cruciaal, want door extreem weer te kunnen voorspellen, kunnen supercomputers mogelijk levens redden en een grote impact op de wereld hebben.
(Auteur Zaphiris Christidis is weather segment leader bij Lenovo.)