Qualche giorno fa abbiamo pubblicato una riflessione sul ruolo della temperatura media superficiale e sulle difficoltà intrinseche nella sua determinazione. In particolare abbiamo azzardato l’ipotesi che si potranno fare dei progressi significativi quando si passerà ad un sistema di misura più omogeneo ed affidabile quale quello delle rilevazioni satellitari.
Già nel recente intervento, abbiamo sollevato al riguardo un problema non banale, ovvero la brevità delle serie di dati satellitari attualmente disponibili. Le misurazioni sono infatti iniziate alla fine degli anni ’70, per cui coprono appena un trentennio. Con riferimento al clima trent’anni sono davvero pochi, però corrispondono anche alla durata dei periodi che vengono solitamente presi a riferimento per la definizione delle medie climatiche ed il calcolo delle anomalie, ovvero degli scostamenti da queste. Il numero trenta nel clima è inoltre molto importante anche perchè sembra che le dinamiche cicliche del comportamento degli oceani in termini di temperature di superficie e contenuto di calore siano soggette ad oscillazioni di durata simile. Tra queste la PDO1, ha subito ben tre inversioni di tendenza con periodo più o meno trentennale nel secolo scorso. Tali inversioni sono in buona correlazione con il segno del trend delle temperature medie superficiali, una correlazione che diviene ottima se si prendono in considerazione proprio i dati provenienti dalle sonde satellitari, pur riferiti esclusivamente all’ultimo periodo.
Stranamente, nonostante siano state compiute molte analisi di breve, medio e lungo periodo sul comportamento delle temperature, queste hanno riguardato sempre i dati superficiali. In uno studio pubblicato su Energy & Environment si è provato a fare la stessa cosa su dati da satellite con risultati interessanti e, a mio modesto parere, parecchio più attinenti alla realtà di quello che sta accadendo di quanto non lo siano le serie storiche della temperatura osservata con metodologia standard e le simulazioni del comportamento di questo parametro basate essenzialmente su di esse.
Analizzando le serie MSU2 ed RSS3, si evidenziano un trend di raffreddamento all’inizio ed alla fine delle serie ed un periodo centrale caratterizzato da riscaldamento. Tra questi, gli autori hanno dedicato maggiore attenzione a quello relativo ai tempi recenti.
Leggendo nella bibliografia a corredo dello studio, scopriamo che la fase di stasi e/o raffreddamento delle temperature che ha caratterizzato la prima decade di questo secolo, era stata prevista da parecchia letteratura scientifica, prendendo in considerazione sia le oscillazioni oceaniche che il forcing solare. Un trend che le rilevazioni satellitari esplicitano in modo più accurato delle osservazioni satellitari. Tra le ricerche prese in esame per questo studio, gli autori ne analizzano una in particolare4 nella quale è stato identificato un segnale periodico nelle temperature della durata di 50-60 anni, a partire dalla fine della PEG5, ovvero dal 1650 circa. Modellizzando poi la serie storica 1861-2000 con un trend lineare sommato ad un ciclo periodico di 64 anni circa, si identificava un picco delle temperature nel 2005, seguito da un periodo di raffreddamento di 32 anni, evidenziando così il ruolo dominante della componente periodica sul trend di riscaldamento lineare. Il rateo di riscaldamento lineare sottostante sarebbe dunque iniziato ben prima che il fattore antropico potesse assumere un eventuale ruolo dominante, e non avrebbe subito accelerazioni nelle decadi recenti. Proiettando tale modello nel futuro e mettendolo in comparazione con i dati da satellite, si evidenzia molto bene l’inversione di tendenza del 2005 per i dati da satellite e la prosecuzione del trend di raffreddamento sino al 2037.
Â
Â
E’ pur vero, sottolineano gli stessi autori, che l’individuazione di un trend di raffreddamento non esclude automaticamente la teoria del riscaldamento antropogenico, come sostenuto in altra letteratura di recente pubblicazione. Il punto è che molte delle analisi a supporto di questa teoria hanno seri problemi nell’individuare quella che appare essere la componente dominante, l’oscillazione naturale con periodo più o meno lungo. Tale componente è invece ben identificata da questa analisi, così come da quelle citate nella bibliografia, tutti lavori che, diversamente da quanto accade per le simulazioni climatiche che prevedono un trend di riscaldamento continuo, prendono in seria considerazione gli indici del forcing solare, come quello dell’attività geomagnetica, piuttosto che le oscillazioni oceaniche.
Se questa superiorità dovesse essere confermata, cioè se il futuro a breve termine dovesse confermare il raffreddamento, sarebbe forse il caso di riconsiderare il peso dell’eventuale forcing antropico, non tanto per affinare le tecniche di prognosi centenarie, quanto piuttosto per fornire le giuste indicazioni per il breve-medio periodo a chi deve prendere le decisioni. Viene infatti da chiedersi se in valore assoluto ci interessa di più sapere se tra cento anni forse farà un po’ più caldo o se nelle prossime due decadi potremmo dover affrontare delle difficoltà nella produzione degli alimenti primari a causa delle avverse condizioni climatiche, piuttosto che essere costretti a consumare quantità maggiori di combustibili per il riscaldamento?
come penso da svariato tempo..é piu un problema di LOCAL WARMING che di global warming