Qualche tempo fa qui su CM ebbi modo di commentare un articolo di M. Mann pubblicato su “Le Scienze”. In questo articolo si stigmatizzava, tra l’altro, il fatto che l’IPCC avesse ufficializzato la pausa o iato nelle temperature globali. Mann sosteneva che di pausa non vi era traccia e che si poteva parlare, al massimo, di riduzione del trend di crescita delle temperature globali.
Capii subito che IPCC aveva fatto un autogol, per cui mi aspettavo da un momento all’altro qualcosa che mandasse a gambe all’aria questa parte dell’AR5. E’ passato meno di un anno ed ecco un articolo fresco fresco che fa avverare la mia profezia: contrordine compagni la pausa non esiste e l’IPCC ha sbagliato tutto. Anzi poteva anche aver ragione (non si sparla mai male della Ditta), ma due anni di dati in più possono cambiare molte cose.
L’articolo in questione è stato oggetto di un post di G. Guidi sul quale si è accesa anche una discussione che ha travalicato la comunità di CM. Allo scopo di evitare di essere influenzato dalle opinioni dei vari blogger, ho deciso di andare a leggere l’articolo oggetto del contendere per farmi un’idea personale.
La lettura dell’articolo non mi ha sorpreso più di tanto: sono anni che ogni tanto qualcuno si alza e mette in discussione tutte le serie di dati raccolti fino ad ora e l’articolo in questione rientra tranquillamente in questa categoria. Per dirla tutta fu proprio la lettura di uno di questi articoli che mi indusse a cercare di vederci un po’ più chiaramente in questo settore e che, alla fine, mi ha fatto diventare uno scettico impenitente. Si trattava di un articolo del prof. Zecca sulle temperature marine (SST) a cavallo della Seconda Guerra Mondiale di cui ho avuto modo di discutere anche con l’Autore qui su CM. L’oggetto del contendere erano le metodiche di omogeneizzazione delle temperature della superficie del mare dopo che si era passati dalla campionatura mediante secchi a quella effettuata sulle condotte di raffreddamento dei motori delle navi. Ciò che dava fastidio nel diagramma delle temperature marine era il “panettone” che caratterizzava le temperature durante gli anni quaranta del secolo scorso. Nessuno riusciva a spiegare il motivo per cui si era avuto un brusco incremento delle temperature superficiali per cui si decise che i dati erano sbagliati e bisognava correggerli in quanto le temperature misurate sulle condotte di raffreddamento delle macchine erano affette da un errore sistematico che, artificiosamente, le rendeva più elevate di quelle misurate con i secchi.
Nel solco di questa lunga tradizione dopo aver spianato il panettone, oggi i ricercatori hanno deciso di inclinare la pausa. In effetti di questo, riducendo all’osso la discussione, si tratta: non è vero che il trend delle temperature dal 1998 ad oggi è privo di significatività statistica come scritto nell’AR5, ma è altamente significativo e, anzi, la pendenza è del tutto confrontabile con quella dell’ultima parte del 20° secolo, quindi niente pausa o iato o come lo si voglia chiamare. Cerchiamo, però, di capire come hanno fatto e se ciò che hanno fatto può essere condivisibile.
Iniziamo dai dati delle temperature marine. Thomas R. Karl e colleghi, ricercatori della NOAA, nel loro report pubblicato su Science
Possible artifacts of data biases in the recent global surface warming hiatus
(da ora Karl et al., 2015), fanno notare che le temperature misurate dalle boe risultano sistematicamente più fredde di quelle misurate dalle navi per cui si rende necessario omogeneizzare le due serie di misure. Considerato che le boe sono dotate di strumentazione più recente e più omogenea di quella utilizzata dalle navi hanno deciso, giustamente, di attribuire un peso maggiore alle temperature misurate dalle boe rispetto a quelle misurate dalle navi. La conseguenza ovvia è una temperatura media delle acque superficiali marine che si colloca tra quella delle boe e quella delle navi, ma più vicina alle temperature misurate dalle boe.
Per quel che riguarda le temperature misurate dalle navi una serie di articoli rigorosamente assoggettati a revisione paritaria sembrava aver assodato che a partire dagli anni 50 del secolo scorso le SST misurate sulle condotte di raffreddamento non dovevano essere assoggettate a correzione. Alcuni (tra cui S. McIntyre) erano di avviso opposto e sulla scorta di altri lavori scientifici (Kent et al., 2007) reputavano apportare correzioni fino al 1970 in quanto fino a quella data circa il 90% dei campionamenti veniva fatto con i secchi. Il campionamento con i secchi terminò del tutto nel 1990 per cui tra il 1970 ed il 1990 sarebbe stato necessario utilizzare un algoritmo di correzione che tenesse conto della graduale dismissione dei secchi. Karl et al., 2015 sulla scorta del fatto che “alcune navi hanno continuato a campionare l’acqua con i secchi fino ai giorni nostri” hanno reputato che anche le SST derivate da misure sulle navi erano, in qualche modo, affette dallo stesso bias polarizzante dei primi anni del secolo scorso per cui anche esse dovevano essere trattate con l’algoritmo di omogeneizazione utilizzato per le SST determinate prima del 1950 (che portava ad un fattore correttivo di circa 0,3°C). Mentre sul problema delle boe mi sento di condividere la tesi degli autori, su quest’ultima problematica non sono affatto d’accordo con Karl et al., 2015. E’ ormai assodato che la stragrande maggioranza delle navi determina le temperature superficiali del mare mediante prelievi sulle condotte e che l’utilizzo dei secchi è un fatto residuale per cui mi sembra strano che le temperature ottenute mediante il campionamento con i secchi possano alterare significativamente le SST consegnate nei dataset successivamente al 1990 e, in misura variabile, tra il 1990 ed il 1970. Giungendo fino ai nostri giorni non facciamo altro che riscaldare artificiosamente le temperature della superficie del mare e ciò potrebbe inficiare fortemente tutti i risultati ottenuti per gli ultimi 24 anni (manco a farlo apposta quelli dello iato). Mi conforta in questa posizione il fatto che fino ad oggi la problematica non era stata mai individuata dalle legioni di ricercatori impegnati nella tenuta dei dataset. Questo non è, però, un problema in quanto la scienza è un continuo lavoro in corso che cerca di migliorare i risultati già considerati acquisiti.
Sempre allo scopo di migliorare i dati a disposizione, i ricercatori NOAA hanno notato che i loro dataset non tenevano conto del fatto che le temperature dell’artico erano sottostimate in quanto il numero di stazioni a disposizione era piccolo per cui i loro dati erano affetti da un bias raffreddante. Come si fa normalmente in questi casi hanno risolto il problema realizzando dei dati sintetici: dove i dati non ci sono li hanno creati per interpolazione tra celle vicine (vicine per modo di dire perché alcune di esse sono distanti anche migliaia di chilometri). E qui si apre un discorso che già altre volte abbiamo affrontato su queste pagine e che, per chiarezza espositiva, preferisco evitare.
Cerchiamo di capire adesso in modo più dettagliato come hanno provveduto a correggere i dati per tener conto delle criticità che ho esposto. Estendendo la correzione del bias alle temperature misurate dalle navi fino ai giorni nostri, hanno ottenuto una variazione del trend delle SST da 0,030°C a 0,064°C (per decade? Dal testo dell’articolo, forse per un refuso, non si evince, ma dal contesto sembrerebbe di si) per il periodo compreso tra il 2000 ed il 2014. Appare chiaro che la causa della scomparsa dello iato è quasi tutta qui. Per lo stesso periodo la correzione dovuta all’utilizzo delle boe ha determinato una variazione del trend di circa 0,026°C per decade equamente diviso tra un maggior peso dato ai dati delle boe rispetto a quello delle navi e un coefficiente riduttivo applicato ai dati delle temperature misurate dalle navi.
Chi ha dato, però, il colpo di grazia al trend delle SST sono state le temperature polari (largamente interpolate): da 0,014°C per decade a 0,075°C per decade. Le temperature superficiali terrestri, invece, non hanno fatto registrare un sensibile aumento del trend (solo 0,005°C per decade).
Fondendo statisticamente tutte queste variazioni, Karl et al., 2015, hanno potuto accertare che il trend di variazione delle temperature superficiali globali nel periodo 1998-2014 è passato da 0,039°C per decade a 0,086°C per decade: è più che raddoppiato.
Nell’articolo è riportata un’interessante figura (fig. 1) che per ragioni di copyright non posso riprodurre. In essa sono confrontati tutti i trend di cui ho parlato ed i relativi intervalli di incertezza di cui mi occuperò nel seguito. La tabella è illuminante ed i lettori sono invitati caldamente a consultarla in quanto solo in questo modo possono rendersi conto del lavoro fatto da Karl et al., 2015. Per quel che mi riguarda posso solo dire che sulla scorta dei vecchi dati su cui si basava AR5 la pausa era evidentissima, sulla base dei nuovi dati (senza tener conto dell’interpolazione polare e sulla base del periodo IPCC) il trend di variazione delle temperature nel periodo della pausa è inferiore, seppur di poco, a quello del periodo 1951-2012.
Quello che mi sembra più interessante, però, è il confronto tra periodi diversi da quello considerato dall’IPCC. Per la seconda parte del 20° secolo tra vecchi dati, nuovi dati ed interpolazione polare non c’è quasi differenza e le barre d’errore sono molto piccole. Quando passiamo a considerare il 21° secolo, invece, le cose cambiano drasticamente. Ricalcolando il dato IPCC con l’aggiunta del 2013 e 2014 (dataset senza correzioni) si ottiene un aumento del trend che diviene ancora più evidente se si considerano i dati corretti (senza interpolazione polare). Considerando i dati corretti anche con l’interpolazione polare si ottiene un trend di variazione delle temperature superficiali globali nel 21° secolo addirittura maggiore di quelli degli anni precedenti (seconda metà del 20° secolo). Risultati pressoché identici si ottengono per il periodo 1998-2014. La cosa più curiosa di tutto il grafico è che se consideriamo le temperature superficiali delle sole terre emerse, lo iato è bello evidente per il periodo considerato dall’IPCC, sparisce per periodi diversi (quelli che prendono in considerazione 2013 e 2014).
Molto interessante anche la fig. 2 (pannello B) in quanto si vede in modo evidente come le correzioni (attuali e precedenti) hanno notevolmente riscaldato i dati tra il 1880 ed il 1950 rendendo molto meno evidente il “panettone” degli anni 40 che però è ancora presente e, cosa molto più importante, fortemente ridotto il rateo di aumento delle temperature tra il 1935 ed il 1945: in quel periodo, stando ai dati grezzi, il rateo di aumento delle temperature è veramente senza precedenti nel periodo compreso tra il 1880 ed i giorni nostri.
E passiamo, infine, alla figura 3 che rappresenta l’andamento latitudinale del trend di variazione delle temperature nel periodo 1950-1999 confrontato con il periodo 2000-2014. I diagrammi evidenziano un andamento del trend delle temperature globali superficiali del 21° secolo praticamente coincidente con quello della seconda metà del 20° secolo ad eccezione delle aree polari: aumento della velocità di variazione della temperatura (riscaldamento) al polo nord e raffreddamento al polo sud. Per gli oceani e le terre emerse il discorso è diverso: nel 21° secolo il trend di variazione delle temperature superficiali dell’oceano è in controtendenza con quello delle terre emerse. In particolare gli oceani si sono “riscaldati” nel nord emisfero e “raffreddati” nel sud emisfero, viceversa per le temperature sulle terre emerse.
Qualche breve considerazione circa le barre di errore mi sembra doverosa. Karl et al., 2015 si dimostra consapevole che le interpolazioni polari sono fonte di grosse incertezze e ne tiene conto aumentando l’ampiezza dell’intervallo di confidenza. Pur utilizzando le stesse metodologie IPCC relativamente al calcolo delle deviazioni standard e delle regressioni gli autori tengono conto del fatto che IPCC non ha provveduto ad interpolazioni polari per cui le sue elaborazioni presentano meno incertezza. Sulla scorta dei test statistici effettuati Karl et al., 2015 conclude che tra il 1998 ed il 2014 esiste ed è statisticamente significativo un trend di variazione delle temperature superficiali globali e che lo stesso è confrontabile con quello della fine del 20° secolo.
Personalmente non ho nulla da obiettare circa il trattamento dei dati: sulla matematica c’è poco da dire. Ciò che non mi sento di condividere di Karl et al., 2015 è l’interpolazione polare e la correzione delle SST misurate sulle navi in quanto mentre tale scelta è accettabile per il periodo fino al 1970, in quanto buona parte dei campionamenti venivano fatti con i secchi, dopo il 1970 e soprattutto dopo il 1990 tale scelta mi sembra assolutamente artificiosa in quanto non possono “alcune” misure fatte con i secchi indurre a revisionare l’intero set di dati.
Possiamo concludere, pertanto, che la scomparsa della pausa è imputabile esclusivamente alle variazione delle SST ed all’interpolazioni polari. Se escludiamo dalla revisione delle SST l’interpolazione polare e la revisione delle temperature misurate sulle navi nel periodo successivo al 1990, la pausa non scompare affatto. Cosa suffragata dai set di dati RSS, UAH ed HadCRUT.
[…] riprese da Climatemonitor, come in questo esauriente articolo del già citato Donato: climatemonitor.it 2016f. Torneremo comunque a parlare delle manipolazioni del NOAA e, in particolare, di Karl & co. in […]
Gentile Donato, grazie per i contributi anche in riferimento ai miei ragionamenti, però, nell’ultimo suo intervento mi ha messo nuovamente in difficoltà. Nel senso che io avevo inteso, che per la stima delle temperature superficiali continentali (lasciando perdere momentaneamente le oceaniche) Karl avesse utilizzato solo il dataset GHCN integrato con nuovi dati, in riferimento alla banca dati ISTI, che sarebbe più completa. Ora, questi dati derivano dai rilevamenti delle stazioni a terra sicuramente, ma sono anche in qualche modo integrati con dati satellitari della bassa troposfera o no? Io di questi ultimi nell’articolo non ho trovato traccia. Questo è il mio dubbio, peraltro secondo il mio ragionamento riportato nel commento precedente, troverei corretto che questi ultimi NON fossero utilizzati. La ringrazio per una eventuale risposta.
Fabio, Karl et al., 2015, non usa dati satellitari di alcun tipo. Anche per le stazioni a terra, quando nei nodi della griglia non sono presenti dati, gli autori ricorrono alle interpolazioni. A proposito di interpolazioni gli autori hanno notato che quelle lineari producono risultati più freddi del 10-15% rispetto a quelle non lineari per cui hanno optato per le interpolazioni non lineari. 🙂
Ciao, Donato.
Io non mi scandallizzo se le cose continuano a modificarsi: so benissimo che è normale nelle indagini scientifiche che sono ancora ai primi passi. Mi scandalizzo se qualcuno mi dice che quell’indagine è settled, perché è un’assurdità patente.
Per il resto, il punto della questione non è sostenere che le temperature diminuiscono. Il punto della questione è che da quella pretesa di essere settled deriva una seconda pretesa, aver capito tutte le cause, e una terza, di conoscere il meccanismo così bene da sapere nel dettaglio cosa fare per contenere la temperatura entro una soglia ben precisa di due gradi, e di fondarci delle politiche sopra.
È come pensare di mettere in piedi la missione Apollo avendo ancora grosse incertezze sulla misurazione dell’accelerazione di gravità.
E contemporaneamente a tutto ciò, di prendere tutte queste pretese certezze per insultare impunemente chiunque non è d’accordo, dandogli dl venduto alle multinazionali.
Fabrizio, questa storia di Karl et al., 2015 diventa sempre più curiosa. Ieri sera ho dato un’occhiata alle reazioni che la sua pubblicazione ha provocato tra l’altra metà del mondo e ho letto il post che G. Schmidt gli ha dedicato su Realclimate (che considero un blog di ottimo livello).
.
Contrariamente a quanto mi sarei aspettato, egli lo considera un tassello che aggiunge poco al dibattito climatologico in quanto va a discutere di qualcosa che non merita di essere discussa: la pausa. Secondo Schmidt la pausa è qualcosa di cui si occupano solo gli scettici in quanto tra gli addetti ai lavori è assodato che essa non c’è mai stata. Anzi, il trend di lungo periodo come già noto, non è cambiato, c’è stato un breve periodo privo di significatività statistica e climatologica, in cui il trend è diminuito di poco. Karl et al., 2015, secondo Schmidt, non ha apportato alcun nuovo contributo a quanto già si sapeva tranne un lieve riscaldamento dell’ultimo quindicennio e qualche miglioramento dei dati intorno agli anni quaranta del secolo scorso. Il tutto a seguito dell’introduzione della nuova versione del dataset delle SSN (la 4 che ha sostituito la 3).
.
La cosa interessante del post di Schmidt sono alcune considerazioni riguardanti le temperature globali: si tratta di un “prodotto” statistico e non di una misura reale per cui pochi centesimi o decimi di grado in più o in meno non cambiano le sorti del dibattito in corso.
Più avanti fa notare, prendendo lo spunto dalla nuova versione della curva delle temperature globali, che le correzioni sono normali nella scienza e cita il caso della curva delle temperature previste dai modelli CMIP5: la curva delle temperature globali negli anni scorsi è uscita dalla fascia di confidenza per cui si prospetta un’altra polemica. Anche questa polemica è, però, inutile in quanto il problema deriva da un errore nei modelli.
Essi hanno sottovalutato, infatti, l’effetto raffreddante degli aerosol vulcanici e sopravvalutato il contributo della radiazione solare. Effettuate le dovute correzioni l’output dei modelli è cambiato e, oplà, la curva delle temperature è rientrata nella fascia di incertezza dei modelli: non vi preoccupate, nessun problema, tutto sotto controllo. Gli scettici stiano tranquilli e facciano fare a noi, sistemiamo tutto, sembra dirci. Una piccola nota pittoresca: dopo la correzione dell’output dei modelli la pendenza della curva si è abbassata solo nella prima decade del 21° secolo, per i prossimi anni sembra, però, che abbia ripreso il trend precedente. Mah!
http://www.realclimate.org/index.php/archives/2015/06/noaa-temperature-record-updates-and-the-hiatus/
Ciao, Donato.
Come blog di ottimo livello non c’è che dire.
gg
Guido, tu sai bene come sono gli altri! Qui almeno scrivono scienziati e si tollerano anche personalità atipiche come Bouldin che su SKS non avrebbe la possibilità di pubblicare neanche un commento. E alla fine ci mettono la faccia, che non è un fatto da poco. 🙂
Personalmente quando su qualche paper ho voglia di conoscere altre opinioni, diverse dalla mia, leggo RC non SKS o prodotti del cortile nostrano, poi mi regolo: a volte scrivono anche cose che condivido. 🙂
Ciao, Donato.
Mi azzardo a fare una domanda più tecnica, quindi magari è una fesseria.
“Secondo Schmidt la pausa è qualcosa di cui si occupano solo gli scettici in quanto tra gli addetti ai lavori è assodato che essa non c’è mai stata. ”
Ma allora quelli che hanno proposto, negli ultimi tempi, decine di paper con spiegazioni diverse per spiegare lo hiatus non erano addetti ai lavori? 🙂 Interessante.
Fabrizio, quando ho scritto la frase che tu hai citato, ho avuto il tuo stesso dubbio: sarà colpa del “pensiero unico” scettico? 🙂 🙂
Ciao, Donato.
Donato, sono contento della sua conferma in merito alla non inclusione dei dati satellitari della bassa troposfera, nell’elaborazione del lavoro di Karl, io, per esempio, avrei fatto la stessa cosa, ma, almeno per quanto mi riguarda, per un motivo prettamente logico e metodologico, non per secondi fini. Purtroppo le serie RRS e UAH differiscono troppo dal dataset GHCN (come mettere insieme mele con pere) e personalmente, nonostante tutti i problemi di cui soffrono entrambe le metodologie, opterei per GHCN. Se devo misurare la temperatura nel giardino di casa mia, preferisco farlo con il termometro, posizionato secondo una logica, piuttosto che fidarmi di un sensore a bordo di un satellite lontano da quel punto almeno 800 chilometri. Per le SST non abbiamo scelta, ma non dimentichiamoci che con il satellite stiamo misurando la temperatura dell’acqua nei primi micron di spessore, quindi un sistema completamente differente, sia dalla temperatura di boa (profondità generalmente da 0,5 a 1 metro), sia dal contenuto di calore reale di una massa d’acqua. Quando tempo fa parlavo di sostanza e di dettaglio, mi riferivo anche a questo genere di problemi, non è assolutamente facile gestire questo tipo di dati, affetti da barre di errore ancora notevoli, quindi non ci dobbiamo troppo scandalizzare se le cose, nel dettaglio (singolo studio, unica serie di dati, singola ipotesi), continuano a modificarsi. Diverso invece è il discorso della sostanza, una sorta di metanalisi concettuale di tutti i dati disponibili che ci dovrebbe portare, con l’utilizzo del ragionamento scientifico e della logica, in una certa direzione. Da questo punto di vista, francamente, non credo che nè un rallentamento del riscaldamento globale, nè una vera e propria stasi delle temperature della durata di un decennio circa, possano costituire fattori decisivi che possano mettere in discussione un paradigma scientifico, in cui tutte le osservazioni portano a definire un chiaro trend su scala decadale orientato all’aumento delle temperature (anche se non in modo lineare), indipendentemente dalle cause, che, come si sa, sono molteplici e operano talvolta in sinergia e talvolta in contrasto tra di loro. Non mi risulta che, nell’ampia disponibilità di dati (anche indicatori, come dinamiche della criosfera, livello marino ecc.) ci siano ancora, e aggiungo purtroppo, delle evidenze “sostanziose”, che possano farci pensare a possibili inversioni di tendenza delle temperature, se non in casi isolati, come una recente diminuzione del contenuto di calore di parte dell’Atlantico del nord e il discorso singolare e anomalo, ma che può avere delle spiegazioni logiche, che riguarda l’Antartide. Ciò non significa che questo “punto di vista”, magari tra una decina d’anni o oltre, non possa modificarsi, se i dati che ci perverranno nel frattempo, dovessero cambiare di segno. Se ci pensiamo, purtroppo o per fortuna, la ricerca scientifica è sempre un cantiere aperto, mi rendo conto che questo, per molte persone possa risultare controintuitivo, ma è così. Saluto sempre tutti cordialmente.
@ Fabio Vomiero
.
Fabio, la cosa non è proprio così. Per mia imprecisione no omesso di dire che i dati satellitari non utilizzati in Karl et al., 2015 non sono UAH o RSS (in questo caso la loro esclusione sarebbe corretta in quanto superficie è diversa da bassa troposfera), ma SSTs cioè temperature della superficie marina determinati dai satelliti. Gli autori reputano che tali dati, oltre al difetto di avere un “bias” rinfrescante dopo il 1985, sono di scarsa utilità su una griglia 2°x2°. A me questa sembra una stupidaggine in quanto si preferiscono dati interpolati, quindi non dati, a dati che sono tali in quanto frutto di misure reali. Personalmente mi sarei regolato diversamente anche perché la temperatura globale è frutto di un’omogeneizzazione di misure tratte dalle fonti più disparate. Eppure gli autori pur riconoscendo che tali dati potrebbero essere molto utili in aree dove i dati sono scarsi, non li utilizzano. Mah!
.
Circa l’obiezione che i dati da satelliti sono poco affidabili rispetto a quelli delle boe o delle navi in quanto oggetto di telerilevamento da parte di sensori posti a 800 km di distanza, potrei essere d’accordo. Mi chiedo, però, perchè sono considerati importanti ed utilizzati i dati gravimetrici da satellite per monitorare le variazioni del livello del mare o la superficie dei ghiacciai, marini e non, artici ed antartici o la variazione di volume delle calotte glaciali antartiche e groenlandesi mentre i dati delle SSN sono poco utili, anzi sarebbero utili, ma non li si utilizza.
Per quel che riguarda il livello del mare si preferiscono ai dati mareografici quelli satellitari in quanto “coprono” superfici oceaniche maggiori o non coperte da misure, per le SSNs, no. L’incongruenza è forte e abbastanza (forse troppo) controintuitiva. 🙂
Ciao, Donato.
Donato, ottimo post, molto esauriente.
Finora, invece di leggere l’articolo, ho letto il tuo commento e qualche
commento sul blog di Judith Curry. La sensazione che si tratti di qualcosa
“ad hoc” è forte, ma aspetterò che escano i dati ufficiali
( http://www.ncdc.noaa.gov/cag/time-series/global ) di maggio
(attorno al 22 giugno) e poi quelli di giugno (22 luglio) per vedere se
verranno fatte modifiche al dataset globale o a quello delle SST (magari,
per caso, i dati non cambieranno…).
Vedo con fastidio le continue correzioni e modifiche ai dati: ricordi ? una
volta, il valore di un nuovo mese implicava modifiche dell’anomalia indietro
fino ai primi anni del dataset (1860), cosa molto antipatica; poi,
improvvisamente e, per quanto ne so, senza spiegazioni, i dati hanno smesso
di avere 4 cifre decimali e hanno incominciato ad averne 2 (e i valori
“vecchi” restavano costanti all’aggiunta di un nuovo mese); adesso
quest’ultima correzione alle SST con la storia dei “secchi” e delle prese
d’acqua dei motori delle navi già sfruttata più di una volta …
Mi dispiacerebbe farlo, ma credo sia necessario abbandonare i dati NOAA in
favore di qualcosa di più stabile nel tempo.
Ciao. Franco
Franco, ti ho pensato molto in questi giorni e ho rivisto alcuni dei tuoi post sull’argomento (quello sulla ricerca dei breack point e quello sui fit a segmenti, in particolare) per rivedere alcune nozioni di base. Attendo con ansia di vedere le tue elaborazioni sui dati NOAA anche se credo che prima di toccare il dataset ufficiale ci penseranno più di una volta ed attenderanno gli sviluppi del dibattito nell’ambito della comunità scientifica.
Ciao, Donato
Sì, anche io credo che penseranno molto bene prima di modificare il dataset,
soprattutto se gli altri dataset manterranno le loro posizioni e se UAH e
RSS tireranno dritti per la loro strada “satellitare”. Nel frattempo ho
letto l’articolo (l’ultimo aggiornamento del mio Firefox non mi fa più
vedere i pdf e anche i .dat! Ho dovuto istallare Chrome.) e, oltre agli
evidentissimi cherry picking che gli autori scaricano sull’IPCC, ci sono
troppe frasi involute, troppi distinguo, insomma troppe chiacchere perché
non si senta odore di bruciato. Non so quando ci sarà Parigi (e non mi
interessa molto), ma credo che Filippo Turturici, nel suo commento al post
di Guido, vincerà la scommessa senza sprecare una goccia di sudore.
Come sai, avevo fatto già i conti sui trend dei dati noaa globali su CM qui il 25
marzo scorso e non starò a ricalcolare i valori per i periodi 1998-2014 (il
mio periodo era 1997-ultimo mese per comprendere del tutto il Nino 97-98) e
2000-2014 (avevo definito un criterio che mi faceva partire dal 2001 e non
c’è motivo di cambiare). Farò invece i conti per il periodo 1951-2012 perché
mai mi sarebbe venuto in mente di scegliere un periodo tanto cervellotico
(inizia quasi in mezzo alla stasi 1940-70). E poi dicono che Bob Tisdale fa
solo cherry picking?!
Appena fatti i conti, li aggiungerò al sito di supporto del post citato
sopra.
Ciao. Franco
Il senso di disorientamento che hanno manifestato F. Giudici e G. Botteri di fronte a dati che vanno su e giù come fosse niente credo di averlo superato da un pezzo perché in ambito climatologico è pane quotidiano. Non dimenticate che i dataset della NOAA sono soggetti a continui rimaneggiamenti sulla base di algoritmi di omogeneizzazione che cambiano in continuazione: F. Zavatti ha scritto una decina di post su questi benedetti dataset in continua evoluzione.
.
Molto acutamente L. Mariani ha messo il dito nella piaga di questo studio. Stamattina, momentaneamente libero da impegni scolastici e in un momento di tranquillità, mi sono concesso qualche minuto di ulteriore riflessione su Karl et al., 2015 e ho notato che a seconda del periodo che si prende in considerazione i trend variano e non di poco. Ho ricordato, quindi, un vecchio post di F. Zavatti (ihttp://www.climatemonitor.it/?p=34927) in cui veniva individuato un metodo analitico per l’individuazione dei breack point in un set di dati rumoroso come quello climatico. Karl et al., 2015 hanno utilizzato metodologie simili a quelle illustrate da Franco e le hanno sottoposte allo stesso test statistico (test Student) per l’individuazione dei vari breack point. Il loro problema è stato quello di voler considerare l’intervallo IPCC (1951/2012).
Ebbene se si considera il periodo IPCC (1951/2012) e lo iato IPCC (1998/2012) anche con i dati corretti (escludendo l’interpolazione polare) vi è una variazione del trend seppur minore rispetto a quella relativa ai dati non corretti (che non vuol dire sbagliati, fino a prova contraria).
Quando Karl et a., 2015 applica, però, l’analisi a periodi diversi da quelli IPCC si annullano le differenze tra i trend e sparisce lo iato. Detto in altri termini giocando un po’ con gli intervalli temporali si ottengono le diverse conclusioni. Della cosa, sempre su CM, ( http://www.climatemonitor.it/?p=34384 ) si occupo’ tempo fa l’amico F. Zavatti che analizzò la metodologia in uso presso NOAA per l’individuazione dei trend in sottoinsiemi del dataset.
In questo lavoro Karl e colleghi sembra abbiano preferito operare in modo diverso e, quindi, far ricorso a intervalli fissi inglobando il periodo 1951/1976 nel più lungo periodo 1951/1998: forse temevano, in caso contrario, di essere additati come seguaci della famosa scala mobile di SkepticalScience 🙂 .
.
Come ha giustamente notato L. Mariani la scelta degli estremi dell’intervallo a cui applicare i fit lineari, è basilare per ottenere i risultati descritti da Karl et al., 2015. Modificando leggermente gli estremi cambia un po’ tutto. Della cosa non fanno mistero gli autori: secondo loro il fatto di aver aggiunto due anni di dati alla serie è uno dei motivi per cui sparisce lo iato.
.
Non bisogna trascurare, infine, il problema dell’intervallo di incertezza. Solo con intervalli piuttosto ampi il trend 1951/2012 è compreso nella fascia di significatività statistica dell’intervallo 1998/2012.
.
Comunque a parte le acrobazie numeriche a me sembra strana la correzione dei dati relativi alle misure sulle navi dopo il 1990 e ancora più strana l’interpolazione polare, ma questo non dipende dalla nostra volontà o da problemi numerici.
Ciao, Donato.
Donato, immagina di avere dei dati a forma di montagna, e cioè che partano da un valore (chiamiamolo A) basso, salgano fino ad un valore massimo (chiamiamolo B) e poi ridiscendano fino ad un punto che chiameremo C.
Vediamo l’effetto di alcune scelte
1. intervallo A-B
indubbiamente si individua un chiaro trend in salita
2. intervallo A-C
se i due punti sono equivalenti, non si individua nessun trend, né crescente, né decrescente
3. intervallo B-C
certamente il trend è in discesa
scegliere l’intervallo non è sempre “indifferente”
Completamente d’accordo con te, Guido.
Questo è il motivo per cui, a seconda dell’intervallo scelto, Karl et al., 2015 ottengono trend differenti. Ciao, Donato.
Come sempre, ottimo e opportuno approfondimento di Donato, che chiarisce molti aspetti della vicenda legata a questo articolo, che, come previsto, sta facendo molto discutere. Chiederei soltanto un chiarimento a Donato, che, in conclusione dell’articolo faceva riferimento ad una eventuale suffragazione dei risultati, con i dati satellitari RSS e UAH; mi sembra che il team abbia escluso volontariamente i dati satellitari troposferici, utilizzando soltanto i dati ERSST versione 4, appunto per le SST. E’ corretto? Se fosse così, condividerei questa scelta, visto che le serie satellitari e GHCN, spesso non vanno molto d’accordo. Una volta chiarito eventualmente questo punto, potrei provare ad aggiungere, come contributo alla discussione, le mie considerazioni.
1. Nell’articolo originale si parla anche di una nuova banca dati per la temperatura superficiale, utilizzata per il lavoro, la ISTI, che integra sensibilmente la GHCN e quindi la copertura spaziale, anche in Artico, zona sensibile e HOT-SPOT.
2. Il punto chiave, a mio avviso, che modifica parzialmente il trend recente, riportato anche da Donato, riguarda i nuovi dati disponibili relativi agli anni 2013 e 2014 (rispetto all’analisi IPCC), anni in cui pare sia evidente una certa ripresa del riscaldamento globale.
3. Anche i dati GHCN (es. GISS), relativi al periodo 1998-2014, forniscono una regressione lineare leggermente positiva, quindi era già più corretto, a mio avviso, parlare di rallentamento del riscaldamento globale, piuttosto che di una vera e propria pausa, più evidente semmai nel periodo 2002-2012, come analizzato recentemente anche dal dott.Zavatti.
4. Stiamo parlando di un singolo lavoro, che quindi non dimostra un bel niente, ma semmai suggerisce un certo tipo di risultati, e contribuisce, in modo a mio avviso almeno apparentemente opportuno e coerente, alla progressione delle conoscenze, ora sarà la comunità scientifica a fare le dovute valutazioni del caso, come sempre.
5. Anche se i risultati fossero confermati, non ci sarebbe comunque nessun stravolgimento concettuale o ribaltamento eclatante delle più aggiornate e complete conoscenze scientifiche in essere, riguardo il tema dei cambiamenti climatici, ma soltanto dei giusti, normali e auspicabili aggiornamenti (non si tratta di errori), più o meno sostanziali, come succede in tutti gli altri campi della ricerca. Sotto questo punto di vista (pensate alla medicina, alla genetica e all’epigenetica, alle bioscienze in generale e a tutte quelle branche scientifiche che si occupano di sistemi complessi, per esempio), le critiche espresse da Fabrizio e Botteri nei confronti della scienza, mi sembrano un po’ esagerate.
6. La scienza NON è ballerina, e non è questione di coerenza o meno, è soltanto forse l’unica, o sicuramente la più efficace opportunità o possibilità che abbiamo, per comprendere, in ogni tempo zero, come funziona il mondo. Un mondo peraltro in continuo mutamento, non dimentichiamocelo.
Saluto sempre tutti cordialmente.
Condivido buona parte dei punti del suo commento. In merito al punto 5 non sono, però, del tutto d’accordo. La conferma dell’assenza di variazioni nel trend delle temperature globali rappresenterebbe, a mio giudizio, un fatto di grande rilevanza in quanto consentirebbe di escludere che il ciclo solare 24 abbia inciso sull’andamento delle temperature globali e non mi sembra una cosa di poco conto. Altro aspetto rilevante sarebbe la messa in dubbio di quelle teorie che vedono nella riduzione del trend un segnale di una possibile inversione dello stesso. Rappresenterebbe, infine, una conferma del legame tra CO2 e temperature globali: lo iato consentiva di affermare che, pur in presenza di crescita costante dei livelli di concentrazione della CO2, le temperature non crescevano (le oltre 38 spiegazioni della pausa ne sono una prova). Ultimo motivo per il quale la conferma dei risultati sarebbe rilevante è costituita dal fatto che mette in seria crisi l’altro set di dati cioè HadCrut4.
Sul fatto che la cosa sia non negativa per la scienza in generale ho qualche dubbio: il dataset NOAA è una specie di mare in tempesta, cambia in continuazione ed è veramente difficile stargli appresso e, a volte, uno dubita della sua affidabilità.
In merito al punto 1) ho qualche perplessità in quanto buona parte dell’integrazione nell’Artico è frutto di interpolazioni e ri-analisi non di misure reali.
E veniamo, infine, alla questione dei dati satellitari. Nei materiali supplementari si legge che in una prima fase gli autori avevano inserito i dati satellitari, ma nella versione definitiva li hanno esclusi in quanto, a loro dire, introducevano un bias raffreddante a partire dal 1985. Vede Fabio, questo fatto di escludere ciò che raffredda (eccezion fatta per le boe) ed includere ciò che riscalda, fa venire cattivi pensieri a me, Botteri, Giudici e tanti altri. Si tratta solo di cattivi pensieri perché sono garantista al massimo livello.
Altri dati che sono stati esclusi dallo studio sono quelli delle boe del sistema ARGO in quanto troppo disperse e troppo poche per influenzare il risultato. Anche questo si evince dai materiali supplementari.
Ciao, Donato.
Bla bla bla
Alle, conosce qualche altra parola ?
Capisco che la lingua italiana, pur arrivando a oltre duecento mila vocaboli (a seconda delle fonti), non arrivi ai 615 mila della lingua inglese, ma se vuole può articolare il Suo prezioso commento in inglese, se vuole.
🙂
La mia è una affermazione precisa:
se vengono forniti dati diversi, non possono essere tutti veri “contemporaneamente” (lo dice la logica, oltre che la matematica), e quindi gli errori ci sono “matematicamente” o prima o dopo (o prima “e” dopo).
Vista la boria e la spocchia di chi dà epiteti di “negazionisti” a chi ha dei dubbi su dati che poi loro stessi riconoscono (indirettamente) per “errati”, mi pare che il suo “bla bla bla” si commenti da solo.
Cordialmente.
Io non sono in grado di entrare nelle valutazioni tecniche. Dico solo una cosa: che se questa revisione dei dati fosse corretta si concluderebbe che l’IPCC ha sbagliato (e lasciamo perdere le patetiche diplomazie per non contrariare la ditta). Essendo l’IPCC il capofila, come si fa a dire che la scienza è settled? Una scienza è settled solo dopo che, per un certo numero di anni, non ci sono più sorprese significative. Qui stiamo dicendo che ci sarebbe stato un errore nella misurazione dei dati, al passo zero. Tralascio per ora il fatto che la cosa ha altre implicazioni, se capisco bene, come l’incongruenza sulle temperature rilevate nella troposfera. Altro che settled: è scienza totalmente ballerina.
E figuriamoci poi se, con queste premesse, si può pretendere quantitativamente di impostare il termostato del pianeta sui famigerati +2°C.
Sono d’accordo con te; se abbiamo a che fare con una correzione (e non la prima !) allora quello che sappiamo con certezza assoluta è che
o prima c’era un errore;
o che prima era giusto e l’errore c’è adesso;
in ogni caso c’è un errore
e quindi abbiamo a che fare con una teoria dogmatica ma che contiene evidentemente, e senza dubbio alcuno (almeno) un (grosso) errore.
Prima o dopo, a seconda dei gusti.
Ma noi scettici dilettanti (nel senso che lo scetticismo non è un mestiere) eravamo chiamati “negazionisti” quando dubitavamo di dati che (nel primo caso) erano sbagliati.
Io mi rifiuto di considerare “settled” una scienza che poi scopre errori di questa portata.
In politica le leggi variano a seconda della convenienza del momento.
Mi aspetterei e vorrei che questo non succedesse nella scienza, e che i dati non venissero corretti, scoprendo che di volta in volta la versione accettata sia quella più conveniente ad una certa posizione. Avrei una brutta sensazione. Senza voler accusare nessuno, naturalmente.
Secondo me.
Ho riflettuto ulteriormente sulla vicenda e sono giunto alla conclusione che Il problema posto da Karl et al andrebbe visto sotto un altro angolo di visuale che è quello che si deduce dal diagramma di hadCRUT4 http://www.cru.uea.ac.uk/ e dall’interpolante ricavata (linea nera).
Se prendiamo il periodo dal 1951 ad oggi che è pi quello su cui ha lavorato Karl, non capisco che senso abbia fare il trend medio da 1951 a 1998 e confrontarlo con quello dal 1999 ad oggi. L’operazione mi pare insensata in quanto il periodo 1951 / 1998 consta di due sottoperiodi con trend totalmente diversi e cioè il 1951/1976 a trend negativo ed il 1977/1998 a trend fortemente positivo.
In tal senso il lavoro di Karl presenta una veste fastidiosamente “demagogica” in quanto, non potendo in alcun modo confrontare 1978/1998 con 1999/2014 perché emergerebbe immediatamente la siderale lontananza fra i due sottoperiodi, fonde arbitrariamente i sottoperiodi 1951/1976 e 1977/1998.
Caro Luigi, il confronto tra il grafico HadCRUT e quello di Karl et al., 2015 è a dir poco imbarazzante: negli ultimi quindici e passa anni raccontano una storia completamente diversa. Eppure rappresentano la stessa grandezza fisica. Possiamo essere d’accordo o in disaccordo circa la valenza fisica della temperatura globale quale integrale del sistema, possiamo essere d’accordo o meno sull’attribuzione del GW, ma il dato deve essere coerente se misurato con due diversi strumenti di misura. In questo caso ci troviamo di fronte alla stessa grandezza fisica (temperatura globale) che viene “misurata” con due “strumenti” diversi: negli ultimi quindici anni sembra di osservare due cose del tutto diverse.
.
Per il resto concordo con te: è basilare capire l’andamento corretto del trend.
Qualora Karl et al., 2015 dovesse diventare lo standard della temperatura globale bisognerebbe rivedere molte posizioni, mentre se ciò non succedesse e, quindi, HadCRUT restasse lo standard della temperatura globale, sarebbe opportuno modificare altre posizioni.
Alla fine credo che il tuo consiglio di restare neutri ed attendere lo sviluppo degli eventi sia da prendere in seria considerazione.
Nel frattempo sono curioso di seguire gli sviluppi degli eventi dalla parte dei curatori di HadCRUT. Anzi mi sono incuriosito: vado a vedere se ci sono reazioni oltremanica. 🙂
Ciao, Donato.
“Nessuno riusciva a spiegare il motivo per cui si era avuto un brusco incremento delle temperature superficiali per cui si decise che i dati erano sbagliati e bisognava correggerli in quanto le temperature misurate sulle condotte di raffreddamento delle macchine erano affette da un errore sistematico che, artificiosamente, le rendeva più elevate di quelle misurate con i secchi.”
.
Mi sono accorto che la frase in questione, a causa di un’inversione nell’ordine in cui sono state scritte alcune parole, ha un significato diverso da quello che intendevo. Dal contesto del post la cosa è abbastanza evidente, ma, per correttezza, ho preferito riscriverla nel modo corretto:
.
“Nessuno riusciva a spiegare il motivo per cui si era avuto un brusco incremento delle temperature superficiali per cui si decise che i dati erano sbagliati e bisognava correggerli in quanto le temperature misurate con i secchi erano affette da un errore sistematico che, artificiosamente, le rendeva più basse di quelle misurate sulle condotte di raffreddamento delle macchine”
Me ne scuso con i lettori.
Ciao, Donato.
Caro Donato, non so che dire. In effetti secondo la serie riveduta da Karl lo iato non ci sarebbe stato, il che come tu concludi pone il problema dell’agreement sia rispetto ad HadCRUT3 e 4 sia rispetto ai dati da satellite.
Immagino che una riconciliazione con HadCRUT potrebbe aversi se HadCRUT adottasse le stesse correzioni di Karl.
Non ho invece idea di come ciò sia possibile per i dati da satellite, che tuttavia come sappiamo non rappresentano la superficie ma uno stato atmosferico abbastanza ampio al di sopra delle stessa.
Per inciso credo che occorra impostare il probema nel modo più neutro possibile poiché è interesse di tutti chiarire in che direzione và il trend, e ciò aldilà delle cause che lo determinano.