Primo problema, conoscere o quantomeno avere delle ipotesi sulle interazioni tra gli innumerevoli fattori che determinano lo stato del tempo, specialmente quando questo diventa ‘poco socievole’.
Secondo problema, riportare quelle conoscenze in un linguaggio edibile per i sistemi di calcolo, con cui si cerca di simularne l’evoluzione allo scopo di far previsioni.
Terzo problema, disporre della capacità di calcolo necessaria per compiere il numero esorbitante di operazioni necessarie in tempi ragionevoli, ovvero prima che la previsione diventi invece un racconto.
Per tutti e tre questi problemi, negli ultimi anni, sono stati fatti passi da gigante, prova ne sia il guadagno di accuratezza che le previsioni hanno avuto in pochi anni. Ma la strada è ancora lunga. In questo articolo su WUWT, c’è la descrizione di un esperimento molto interessante volto a migliorare la capacità e i tempi di previsione degli eventi di convezione profonda, quelli che possono dar luogo a tornado e forti precipitazioni grandinigene.
La precisione con cui sono riusciti a ‘prevedere’ la posizione e l’intensità degli eventi è impressionante. Del resto, il passo di griglia del modello impiegato è sceso a 500 mt, praticamente 6 volte più definito dei modelli ad area limitata che oggi si utilizzano operativamente. Però pare siano state necessarie più di un milione di ore di calcolo di uno dei più potenti calcolatori del mondo. Le stime? In cinque o dieci anni, scrivono, sarà possibile avere questa precisione di prognosi con un paio d’ore di anticipo sugli eventi. Per adesso, meglio continuare a tenere gli occhi al cielo ;-).
Sii il primo a commentare