Abbiamo parlato tante volte di omogeneizzazione delle serie storiche e di rappresentatività dei dati. Dal comunicato stampa del CNR che riportiamo di seguito, alcune interessanti notizie in ordine ad un progetto di analisi dei vari metodi di trattamento dati volto a generare tecniche standardizzate e, soprattutto, un datset globale trasparente ed affidabile.
Buona lettura.
[success]
I dati registrati presso le stazioni meteorologiche sono in genere affetti da errori dovuti a cause tecniche: spostamenti delle stazioni, sostituzione della strumentazione o variazioni degli orari di osservazione. Per questo motivo gli studiosi ‘ripuliscono’ le serie meteorologiche attraverso un”omogeneizzazione’ dei dati. La Cost Action ‘Home’, che coinvolge l’Istituto di scienze dell’atmosfera e del clima del Consiglio nazionale delle ricerche (Isac-Cnr) di Bologna e ricercatori da 27 paesi europei, oltre ad Australia, Andorra e Stati Uniti, ha studiato le performance dei vari metodi di omogeneizzazione, e ha realizzato un software basato sui metodi che hanno dato i risultati migliori. La ricerca è stata appena pubblicata sulla rivista Climate of the Past.
“Abbiamo effettuato dei test su dati climatici artificiali che ‘imitano’ i networks climatici e i loro errori con un realismo senza precedenti. Il vantaggio di questo tipo di dati sta nel fatto che sia gli elementi di origine non-climatica inseriti in alcune stazioni sia il trend (positivo, negativo o nullo) dei dati una volta corretti sono noti solo a chi li ha creati”, spiega Michele Brunetti dell’Isac-Cnr. “Si è trattato insomma di test ciechi, in cui i ricercatori che hanno creato i dati e quelli che li hanno omogeneizzati appartenevano a due gruppi distinti: siamo certi quindi che i risultati ottenuti rappresentino una valutazione oggettiva dei vari algoritmi di omogeneizzazione”.
La critica che viene spesso mossa a queste metodologie è infatti che le correzioni dei dati portino a una sovrastima del riscaldamento globale. “I risultati ottenuti dai test mostrano invece il contrario: l’omogeneizzazione migliora la qualità delle stime dei trend, che se stimati sui dati omogeneizzati sono più vicini all’andamento reale”, ribatte Brunetti.
Sulla scorta di questo studio è stato messo a punto un software innovativo. “Il nuovo programma, basato sui metodi che hanno dato i risultati migliori, è già accessibile ai ricercatori, che potranno usarlo per correggere i dati delle serie storiche e realizzare studi climatici più precisi. Inoltre, l’esperienza maturata nella Cost Action Home sarà sfruttata nell’ambito della ‘International Surface Temperature Initiative’, che sta lavorando per creare un data set globale delle temperature disponibile a tutti e, soprattutto, trasparente, dalla scansione degli annali originali fino al dato finale ripulito e pronto per l’analisi climatica”, conclude il ricercatore dell’Isac-Cnr.
[/success]
Qui trovate il link all’abstract dell’articolo.
Scrive G. Botteri, “si rendono conto che ci sono degli errori, già è una cosa.” Veramente, leggendo qua e là, io ho avuto un’impressione leggermente diversa. Nella descrizione dello studio (secondo riferimento segnalato da G. Guidi nel suo post) si legge chiaramente che il lavoro DIMOSTRA agli scettici che l’omogeneizzazione dei dati non è un fatto negativo, ma rende i risultati delle analisi più corretti. Secondo gli autori del lavoro, infatti, le serie di misurazioni delle varie stazioni possono presentare delle lacune o dei “salti” conseguenti a modifiche della strumentazione o delle situazioni al contorno (si parla chiaramente di isola di calore urbano, per esempio). L’omogeneizzazione consente di tener conto di queste situazioni. Questo in generale, con buona pace di chi pensa che le serie disponibili rappresentano la realtà 🙂 .
La dimostrazione della bontà delle loro argomentazioni va ricercata negli esiti di alcuni “esperimenti” condotti dai membri del gruppo. Se non ho frainteso il discorso (l’inglese non è il mio forte 🙂 ) Sono state create delle serie di dati artificiali in cui, successivamente, sono state introdotte delle lacune, dei “salti” e via cantando. I risultati delle elaborazioni dimostrerebbero che le omogeneizzazioni riescono a “eliminare” (lo so è grossa) tali discontinuità. In particolare l’algoritmo da loro creato riesce in tale operazione molto meglio di altri. Si invitano, pertanto, i vari climatologi ad applicare questo algoritmo alle serie di temperature reali in modo da ottenere serie di temperature meglio “normalizzate” rispetto a quelle attuali.
Entrare nel merito della bontà dell’algoritmo supera le mie capacità per cui lo diamo per buono.
Due considerazioni finali.
1) Mi sembra di aver capito che il problema di tutti i dataset di temperature sia la disomogeneità delle serie. Il principale obiettivo dei climatologi, pertanto, è eliminare queste disomogeneità. Muller & C. hanno cercato di farlo con BEST, il gruppo di ricerca ha creato l’algoritmo di cui stiamo discutendo, altri hanno fatto altre scelte, altri gruppi di ricerca ne faranno ancora altre. In parole povere ci troviamo di fronte ad una situazione in rapida evoluzione che dimostra che ciò che sappiamo fino ad ora potrebbe essere non corretto. Considerando che tutto questo si fa per zittire gli scettici mi sento piuttosto lusingato: significa che le cose che si sostengono in certi lidi non sono proprio campate in aria. Conclusione: i blog servono a qualcosa!
2) Si sperimentano nuovi mezzi di pubblicazione dei risultati di lavori scientifici. Sempre nello studio citato da G. Guidi nel suo post, infatti, si legge che la pubblicazione del lavoro è stata effettuata a spese degli autori allo scopo di mettere a disposizione del pubblico, gratuitamente, il lavoro revisionato e tutte le discussioni intercorse tra i revisori e gli autori in modo da rendere trasparente tutto il processo di revisione tra pari e dare la possibilità ai blogger ed a chi interessato, di intervenire ed, eventualmente, mettere in evidenza errori o fornire suggerimenti. Voi sapete che questi argomenti mi interessano in modo particolare, per cui ho molto apprezzato il metodo di questo gruppo di ricerca. Il loro lavoro ha seguito i normali canali della revisione paritaria. Completata la revisione, tutto è stato reso pubblico ed aperto ad una discussione molto più ampia. Un elemento di assoluta novità nel panorama della pubblicità della ricerca scientifica (almeno per me) che probabilmente avrà grossi sviluppi. Non butta a mare la revisione paritaria e, contemporaneamente, “democratizza” il lavoro scientifico. Due piccioni con una fava. Complimenti!
Ciao, Donato.
Fammi capire, Donato, in cosa consisterebbe esattamente questa “omogenizzazione.
Supponiamo di voler fare un grafico della situazione economica di mr X.
Se mr X ad una certa data vince la lotteria, il soldi della vincita, certamente non “omogenei”, vanno eliminati ?
Non so in cosa consista esattamente questa omogenizzazione, dovrei vedere l’algoritmo, ma trattandosi di qualcosa fatto per mettere a tacere gli scettici, sento puzza di… (e qui mi autocensuro)
ma resta il fatto che questa, volenti o nolenti, è un’ammissione (magari implicita ed involontaria) di aver commesso errori, o sbaglio ?
Uno non “scopre” (bella questa !) un algoritmo di correzione se non ha bisogno di correggere…
Nella mia esperienza di scettico blu (il colore è solo un abbellimento inessenziale 🙂 ) ho visto più volte correggere dati già presentati anni prima. Grafici diventare sempre più simili ai desiderata serristi… e questo tipo di operazioni mi lasciano ancora più scettico di prima, perché se le boe non sono uguali ai secchi, questo bisogna che se ne accorgano “prima” di cambiare modalità di misura, e non dopo anni, scoprendo che “correggendo” come pare a loro (chiamiamola “correzione”, ma forse è meglio chiamarla “trick”) i dati, miracolosamente, diventano più rispondenti alle loro tesi.
Salvo poi a dire “è peggio di quel che pensavamo” quando magari i dati risultano inferiori alla loro previsione catastrofica.
In definitiva, tutta l’operazione dice male della sicurezza fin qui dimostrata, la cui conseguenza sono termini quali “negazionisti” dati al dissenso. Non si possono chiamare “negazionisti” coloro che non la pensano come te, quando tu stesso commetti degli errori, che poi dopo ti costringono a sviluppare software appositi per ….(e qui mi autocensuro 🙂 )
Guido, credo che la tua sia una domanda retorica di cui sicuramente conosci la risposta 🙂 . Comunque, visto che hai aperto la discussione, vediamo di approfondire questo fatto dell’omogeneizzazione. Sarebbe bello se nella discussione intervenisse anche qualcuno che la pensa in modo diverso (io e te la pensiamo in modo quasi uguale per cui discussione ne faremo poca)! Come dicevo nel precedente commento le serie di dati climatici soffrono di diversi problemi. Uno di questi è la discontinuità: nel tempo si sono perse le registrazioni di alcuni periodi, le registrazioni non sono state fatte per accidenti vari, la stazione è stata spostata, la capannina è stata modificata, la stazione è stata inglobata in una città, lo strumento di misura è stato cambiato (i secchi sono stati sostituiti con le boe, come hai detto tu) e così via. Fatto sta che queste benedette serie sono tutte sbrindellate come il cencio che, in questo momento, il mio cane sta distruggendo. L’algoritmo “scoperto”, se non ho capito male, serve a mettere delle toppe là dove sono i buchi, a ricucire gli strappi e via cantando. Come? Facendo riferimento a una rete di stazioni di tipo regionale. In parole povere l’algoritmo “ricostruisce” i dati persi e corregge quelli che si discostano dalla media di quelli delle stazioni vicine. Se stessimo di fronte sono convinto che mi avresti già interrotto almeno una dozzina di volte e a questo punto mi toglieresti definitivamente la parola. Fortunatamente, però, scriviamo e siamo molto lontani per cui sei costretto a leggere senza potermi interrompere: miracoli della tecnica 🙂 . Si, in fin dei conti, si tratta di marchingegni contabili per creare ciò che non c’è. Un po’ come accade con i “proxi”. E’ giusto fare così? Dipende, secondo me. Mi spiego meglio. Se io decido di studiare l’evoluzione delle temperature nel corso del tempo per esigenze scientifiche credo che, con i dovuti condizionali, la cosa potrebbe anche essere accettata. Il guaio è che su questi dati (che non ci sono) si costruiscono teorie che dovrebbero condizionare la nostra vita (qui il condizionale andrebbe tolto perché, almeno a noi europei, la vita la stanno già condizionando). In altre parole si dice che la temperatura è aumentata rispetto ad un certo periodo anche se per quel periodo i dati li abbiamo persi ed essi sono stati ricostruiti con l’algoritmo di cui parliamo. Caro Guido è come dici tu: se si corregge a destra ed a manca significa che quello che ci veniva proposto come la verità delle verità non lo era. L’unico problema è che correggi qui, aggiusta là, omogeneizza dall’altra parte, si scopre sempre che il mondo si è scaldato (cosa ormai arcinota e da tutti riconosciuta), ma mai PERCHE’ si è scaldato. E così noi andiamo avanti a commentare i risultati di algoritmi sempre più sofisticati che scoprono cose già note. I politici si lambiccano il cervello a escogitare nuovi incentivi e nuove gabelle per impedire il disfacimento climatico dovuto alla perfidia umana ed alla CO2. Nel frattempo il clima, che nessuno ha informato di ciò che stiamo facendo e pensando noi umani, se ne va per fatti suoi. Noi, intanto, non cerchiamo di individuare strategie di adattamento per cui, se il GW dovesse continuare, di qui a qualche decennio ci troveremo con il … (autocensura) rotto e la pena pagata.
Ciao, Donato.
Donato, mi dispiace per il tuo cencio, ma non credo di poterci fare più nulla. So trattare con gli animali, che subito capiscono che sono loro amico, ma non ci sono i tempi tecnici per un salvataggio del cencio, dovrai fartene una ragione 🙂
Quanto all’interromperti, non è mia abitudine. Nonostante la mia mole e il mio passato di pugile (ma lì, interrompere le azioni avversarie faceva parte del “gioco”) e di artista marziale, sono una persona mite e dialogante. Questo aspetto del mio carattere mi danneggia nelle discussioni dal vivo, quando trovo tipi prevaricatori, di quelli che non ti fanno parlare. In questi casi uso un sistema che ho visto avere successo. Diceva mia madre “retardati hocies, scapulati necies” che vuol dire che puoi ritardare ma non scapolare, ed io, quando qualcuno devia il discorso, lo riporto in tema, a costo di ripetere, ripetere e continuare a ripetere sempre la stessa domanda a cui evita di rispondere.
Hai ragione, siamo sulla stessa lunghezza d’onda, ma trovo in te molti spunti interessanti, oltre ad una meticolosa preparazione sui vari argomenti che affronti. Non occorre che mi paghi il caffè quando ci vedessimo, perché non è una sviolinata, ma solo quello che penso davvero.
Venendo al punto delle omogeneizzazioni, come dice la Plasmon, è lecito omogeneizzare, per carità, e il discorso fila ed è convincente, almeno in apparenza.
Però tu avrai capito che io sono un malfidato, da quando persi al gioco delle tre carte puntando sull’unica carta scoperta (avrei dovuto capirlo che se te lo permettono, vuol dire che non esiste possibilità di vincita per chi non è loro complice, ma ero giovincello e alquanto ingenuo).
Perciò non mi fido e vado a vedere i bluff, quando posso.
C’è un bluff in questo caso ? Se non posso esaminare l’algoritmo che hanno sviluppato (la dizione “scoperto” immagino e spero che sia del giornalista che ha scritto l’articolo che avevo letto io), non ho modo di avere conferme o smentite.
Un mio amico mi ha scritto che ci starebbero preparando il “biscotto”, con questo software. Capirai come io possa fidarmi poco di simili pasticcerie. Sono diabetico, e quindi i “biscotti” mi fanno male, e non gradisco i “pasticci”.
Dopo l’esperienza del grafico della mazza (da hockey) di Mann, e vedendo come la frasetta di allineamento alla denuncia dell’AGW sia messa ormai su tutto, come il prezzemolo, anche sulle torte, capirai con che ripugnanza io possa guardare delle torte al prezzemolo.
Ecco dunque la mia perplessità di fronte a qualcuno che dice di voler omogeneizzare dei dati… non vorrei che fosse la solita omogeneizzazione al prezzemolo.
Perplessità che aumenta pensando alla continua riduzione in atto delle stazioni, che implica una sempre maggiore lontananza tra di loro, e il sospetto di una sempre minore correlazione tra di loro. Tutto da verificare.
E con questo concludo, sperando di non aver rovinato l’appetito a nessuno.
Nello studio di presentazione del lavoro di cui stiamo discutendo
( http://www2.meteo.uni-bonn.de/mitarbeiter/venema/themes/homogenisation/HOME/index.html#photos ) possiamo leggere:
“Some people remaining sceptical of climate change claim that adjustments applied to the data by climatologists, to correct for the issues described above, lead to overestimates of global warming. The results clearly show that homogenisation improves the quality of temperature records and makes the estimate of climatic trends more accurate.”
La citazione, ex abrupto, e, quindi, decontestualizzata, sembra portare acqua al tuo mulino (anche nel contesto, però, le cose non cambiano più di tanto). Se poi è come tu dici (mi riferisco al “biscotto”) la cosa acquista un valore molto diverso.
Io propendo sempre per la buona fede (e molte volte questa propensione mi costa, eccome se mi costa 🙂 ). Speriamo che i “rumors” che ti sono giunti siano solo tali!
Ciao, Donato.
chiedo scusa il commento è partito senza che lo volessi
intendevo riportare una frase da quel link:
[ Ad annunciare la scoperta è il Consiglio Nazionale delle Ricerche ]
…cioè, per questi, sviluppare software sarebbe fare una “scoperta” !
Beh, si rendono conto che ci sono degli errori, già è una cosa.
Saranno più sereni con il dissenso ? Lo spero.
Negli anni scorsi s’è vista una serie di correzioni a distanza di anni (boe, secchi, ecc.).
Questo mostra che certe sicurezze sbandierate in passato, tali non potevano essere, come ci conferma la necessità che hanno avuto di sviluppare questo software (vedremo se funziona).
ps
giusto per ridere, da:
http://www.adnkronos.com/IGN/Sostenibilita/World_in_Progress/Stop-agli-errori-sul-clima-nuovo-software-da-maxi-team-di-ricerca-Ue-Usa_312840249266.html
[ .
Eccolo qua l’articolo scientifico in Abstract: http://www.clim-past.net/8/89/2012/cp-8-89-2012.html
E’ anche disponibile il PDF completo.
ps Mi sembra che il comunicato stampa sia un po’ entusiastico, diciamo cosi’.
Soprattutto Maurizio, è interessante il virgolettato di Brunetti, che in realtà riprende pari pari quello nel comunicato ufficiale. Io non credo che ci siano dubbi circa il fatto che le tecniche di omogeneizzazione facciano migliorare la qualità dei dataset risultando più fedeli alla realtà. Ma ho un problema, anzi, due. Innanzitutto i dataset SONO la realtà, quindi non capisco a cosa dovrebbero sembrare più fedeli, a se stessi? E poi. di conseguenza, il problema è che la realtà è biased, cioè condizionata dalla posizione delle stazioni. Qualità dunque ottima ma scarsamente rappresentativa in termini di stato termico del pianeta.
gg