Il livello del mare sta salendo, il leader di una piccola isola/nazione della Polinesia, l’isola di Tuvalu, scoppia in lacrime e chiede al presidente Obama di fare qualcosa per salvarla, sinceramente convinto (?) che questo rientri tra le sue prerogative. I ghiacciai montani sono in sofferenza in molte zone del mondo e altre popolazioni reclamano il proprio diritto ad essere protette o salvate, a seconda dei casi. Le stesse esigenze devono averle rappresentate alle loro divinità le popolazioni vichinghe che, a causa della sopravvenuta Piccola Era Glaciale, dovettero abbandonare i loro insediamenti in Groenlandia. Nulla potettero fare quelle divinità , nulla molto probabilmente potranno i potenti ma molto terreni grandi della Terra riuniti in questi giorni a CO2penhagen. Ma oggi non tornerò sull’argomento uomo sì, uomo no, vorrei semplicemente fermulare qualche riflessione sull’aumento delle temperature medie superficiali del pianeta.
Ebbene sì, siamo di fronte a questa inelluttabile realtà , il pianeta si è scaldato. Quanto, quando e, soprattutto, rispetto a quale ipotetica condizione ideale? Ahimè, a nessuno di questi quesiti è possibile dare una risposta oggettiva. Al riguardo siamo purtroppo ancora a livello di congetture. I primi due, quanto e quando, sono ovviamente strettamente correlati. Per rispondere al primo è necessario disporre di serie affidabili di misurazioni e di analisi di dati di prossimità onde sopperire all’assenza di dati osservati. Dall’analisi di queste serie si può pensare di ricavare una tendenza di lungo periodo, che cambia forma e segno in relazione alla lunghezza del periodo cui le serie fanno riferimento. Dopodichè, per dare un senso a questa tendenza, è necessario stabilire un periodo di riferimento, allo scopo di individuare eventuali anomalie del sistema.
Ormai parecchi anni fa, gli scienziati del clima ebbero l’intuizione di considerare idoneo, ai fini dello studio dell’andamento delle temperature, un periodo di almeno tre decadi. Oggi, con le conoscenze acquisite in ordine alla durata dei cicli oceanici AMO e PDO1 e con la consapevolezza che la maggior parte del lavoro di redistribuzione del calore sul Pianeta la compiono proprio gli oceani, sappiamo che questa intuizione fu azzeccata, ma sappiamo anche proprio in relazione al comportamento degli oceani, di questi cicli se ne dovrebbero intercettare almeno due per avere un ermine di paragone affidabile.
Il problema è che sia nel valutare il quanto e quando, sia nella scelta del periodo di riferimento, siamo costretti ad una serie interminabile di scelte soggettive che inevitabilmente condizionano i risultati delle nostre analisi. Per decidere quanto sia aumentata o diminuita la temperatura di una singola località occorre disporre di una serie di dati sufficientemente lunga, valutarne l’attendibilità e sperare che questa non sia stata sporcata nel tempo da spostamenti della stazione, cambiamenti della strumentazione o importanti modifiche morfologiche avvenute nelle zone circostanti. Se invece queste cose sono avvenute -cioè quasi sempre- occorre applicare delle procedure di correzione. Se invece di una località scegliamo di analizzare un’area, e quest’area è grande quanto il pianeta, tutte queste difficoltà le dobbiamo moltiplicare per il numero delle stazioni di cui disponiamo, aggiungendo però l’elemento positivo di poter paragonare i dati di una stazione con quelli delle località limitrofe. Ammesso che ve ne siano. Già , perchè per vastissime zone del mondo, i dati a disposizione sono veramente pochi. Spesso i punti di griglia, ovvero i quadratini in cui è necessario suddividere la zone di riferimento per disporre di una serie omogenea dal punto di vista spaziale, sono popolati da una sola stazione o addirittura da nessuna. Quel quadratino, se dotato di una sola stazione di riferimento, non potrà fornire molto aiuto per valutare quanto accaduto in quelli adiacenti; se del tutto privo di informazioni, dovrà importare in toto le informazioni provenienti dalle zone adiacenti. Ne consegue che la costruzione di un dataset di dati di temperatura media superficiale globale è quanto di più artificioso si possa immaginare. Quel che ne risulta è poco più di una stima, non certo un’osservazione.
Nelle convulse giornate immediatamente successive all’esplosione del Climategate, Phil Jones, direttore del CRU2 si è affrettato a specificare che la similarità di risultati cui sono giunti tutti quelli che gestiscono i dataset delle temperature globali è garanzia del fatto che le loro operazioni di omeneizzazione e correzione dei dati non possono essere state oggetto di manipolazione o, se si preferisce, di bias ideologico. Come abbiamo più volte sottolineato, questa è una non risposta. Infatti, già in tempi decisamente non sospetti, ovvero nel 2007, Roger Pielke Sr, uno scienziato che alcuni ritengono sia uno scettico ma che si arrabbia molto se lo si definisce tale, aveva pubblicato sul GRL un lavoro con cui dimostrava che i dataset del GISS, del CRU e dell’GHCN, sono sovrapponibli per il 90-95% delle fonti che impiegano. Per quanto si vogliano applicare procedure di post-processing differenti, partendo da dati grezzi così largamente condivisi, i risultati possono soltanto essere molto simili. Sempre nello stesso lavoro, venivano affrontati e discussi la maggior parte dei problemi cui sono purtroppo soggetti i dati rilevati dalle stazioni di superficie.
Infatti, per ragioni a volte decisamente incomprensibili, ogni volta che i dati grezzi di una stazione di superficie sono soggetti a operazioni di correzione e aggiustamento, finisce per essere accentuata la tendenza all’aumento delle temperature. E’ questo il caso ad esempio della stazione di Darwin in Australia, che abbiamo discusso qui e che alla fine è divenuta rappresentativa per una parte consistente di un intero continente. Ma i casi sono innumerevoli, ad esempio qui e qui è possibile trovarne altri, presi a caso tra le poco più di duemila stazioni che compongono il dataset delle temperature globali.
Se per qualcuno non fosse chiaro, questi sono aspetti di cruciale importanza, al pari della definizione del peso reale dell’effetto antropico sulle dinamiche del clima. Anzi, se non si riescono a risolvere i famosi quanto, quando e rispetto a cosa, eliminando i più possibile le scelte soggettive, non abbiamo speranze di valutare esattamente questo peso. Ancora Pielke Sr, infatti, dimostrando di essere inoltre tutt’altro che scettico, ha pubblicato con il suo team di ricerca un documento in cui pone il peso dell’effetto antropico sul clima in relazione ad elementi interni al sistema in posizione centrale. Insomma, più si approfondiscono questi argomenti, più ci si rende conto che il mondo non ha bisogno di faraoniche imprese di mitigazione, quanto piuttosto di un salutare bagno di umiltà da parte soprattutto di quanti si ostinano a considerare acquisite certe conoscenze.
Quello che fine adesso hanno fatto i vari team dell’Hadley/CRU, del Giss e della NOAA è stato di cercare di risolvere la contaminazione delle serie storiche con un approccio “dall’alto”, pensando che potevano aggiustare i dati con algoritmi matematicamente eleganti e che, han pensato, potessero risparmiare quello sporco lavoro richiesto.
E quale sarebbe il lavoro sporco da fare?
Prima di applicare una qualunque correzione, va ricostruita la storia della stazione, occorre farle una visita, fisica, non dal chiuso dei propri uffici, fotografarla, valutare tutti i possibili cambiamenti nei dintorni.
Invece loro, da Ashville, da New York o da Norwich, hanno pensato che con i loro algoritmi potevano sistemare qualunque situazione e hanno diffuso questa convinzione in tutto il mondo. E’ stata una disdetta, accompagnata probabilmente anche da scelte soggettive od influenzabili dalle convinzioni personali che hanno fatto nascere una scarsa fiducia in chi, alla fine, ha cominciato ad indagare il sistema così consolidato.
Il castello ormai è crollato e tutti vogliono controllare come la stazione di misura vicino a casa è stata trattata dai vari gruppi senza che mai abbiano fatto le inchieste di base.
E’, forse, arrivato il momento di pensare anche alle stazioni di casa nostra.
In pratica Pielke Sr e tutto il suo gruppo di ricerca nel 2009 in una peer review affermano che la situazione più probabile è che le emissioni di gas serra antropogenici, siano importanti, ma non dominanti nei cambiamenti climatici.
E’ una forte critica alle conclusioni dell’IPCC e (quindi si capisce come mai lo abbiano isolato e tagliato fuori dall’IPCC)
Se avesse ragione come IO credo, la mitigazione con la riduzione delle emissioni sarebbe assolutamente inutile.
E pensate a quanto sia inutile, assurda (benché ultra-costosa) la ricerca sulla sequestrazione geologica della CO2. Eppure l’UE finanzia fior di progetti.
@Luca Galati
il commento mi sembra pertinente. Se si fosse in presenza di pastrocchi pesanti sui dati, o sui metodi di elaborazione, o lo fanno tutti o nessuno nel caso gli andamenti fossero concordi.
Gia’ in rete esiste una lunga serie di documenti che analizzano le differenze tra i tre diversi andamenti.
Ho trovato molto interessante l’analisi riportata in:
http://tamino.wordpress.com/2008/01/24/giss-ncdc-hadcru/
che e’ fatta pre e-mails (quindi non dovrebbe risentire di bias culturali) e fatta da un non scettico.
Poi, caro Galati, per scoprire delle cose, sia nel bene che nel male, non ci sarebbe nulla di meglio che avere la trasparenza richiesta per tanto tantissimo tempo.
Cordialmente
Analisi impeccabile, Guidi. Solo un dubbio, proprio nel titolo:
ha senso UNA temperatura come rappresentativa del pianeta?
La difficoltà di definire un valore per rappresentare un global warming (=l’esigenza di un HADCRUT3 complesso, non perfetto, e ora, come sembra, non privo di bugs e coefficienti sbagliati), penso rifletta proprio un non-sense fisico (e forse statistico?).
Quanto non mi piace quel “World Climate Widget” che mostra l’anomalia di T globale, come fosse un numero magico…..
Piccola nota, l’articolo di Pielke è su JGR (J.Geoph.Res.) non su GRL (Geoph.Res.Lett.)
Sul nonsense fisico, lascio la palla agli studenti di fisica. Sul nonsense statistico, posso rispondere: sì, è un nonsense. D’altronde abbiamo paleoclimatologi che sulla fanta-statistica hanno costruito intere carriere lavorative. Ma questo è un altro discorso…
Il World Climate Widget? Dona colore alla pagina!
CG
Continuo a non capire. Perchè non trovo scritto da nessuna parte che i dati grezzi siano falsi, piuttosto leggo questo:
i dataset del GISS, del CRU e dell’GHCN, sono sovrapponibli per il 90-95% delle fonti che impiegano. Per quanto si vogliano applicare procedure di post-processing differenti, partendo da dati grezzi così largamente condivisi, i risultati possono soltanto essere molto simili
Da cui deduco che, se i dati grezzi sono puliti, i risultati eventualmente simili nei 3 vari istituti sono da imputare a processing manipolatrici per ciascuna serie di dati ricostruiti…quindi lo scandalo andrebbe esteso a tutti i tre enti…
Insomma lo scoop si allargerebbe e voi avreste un altro anno abbondante di cui parlare e urlare al complotto…
Ma voi questo lo avete dimostrato ovvero che anche gli altri enti sono dei ‘farabutti’ visto che i dati grezzi sono puliti e ciascuno compie un lavoro indipendente di elaborazione…oppure no?
Oppure si può dedurre che essendo i dati grezzi ‘puliti’ e condivisi, se i risultati sono pressappoco gli stessi, per quanto diversi possano essere i metodi di processing, allora forse tutto questo complotto non esiste ed è una messa in scena degli scettici…?
Non capisco se lei stia facendo il “finto tonto” cercando ad ogni costo lo scontro, oppure semplicemente è poco informato. Quando l’avrò capito, per quanto mi riguarda, risponderò.
CG
Spieghi la sua versione, visto che io la mia l’ho spiegata.
Se “i dataset del GISS, del CRU e dell’GHCN, sono sovrapponibli per il 90-95% delle fonti che impiegano” ovvero usano gli stessi dati grezzi, al di là del processing dei dati del CRU, si può sempre dare una sbirciatina ai dati processati degli alri due centri per vedere se le tre serie di dati elaborati sono conformi tra loro.
Ebbene, cosa avete scoperto a riguardo?
Immagino nulla di compromettente ed in linea con quelli del CRU…
Se “i dataset del GISS, del CRU e dell’GHCN, sono sovrapponibli per il 90-95% delle fonti che impiegano” ovvero usano gli stessi dati grezzi, al di là del processing dei dati del CRU, si può sempre dare una sbirciatina ai dati processati degli alri due centri per vedere se le tre serie di dati elaborati sono conformi tra loro.
Ebbene, cosa avete scoperto a riguardo?
Immagino nulla di compromettente ed in linea con quelli del CRU…
Immagino di non aver compreso l’obiezione…
…che per dire che “in realtà è tutto lo stesso brodo” dovete dimostrare che anche gli altri dati grezzi degli altri istituti sono stati manipolati…
A quelli del CRU si è fatta obiezione di aver manipolato i dati tramite elaborazione, non che i dati grezzi sarebbero falsi già in partenza ovvero questi invece risulterebbero del tutto validi per tutti gli altri istituti prima del processing…