Le temperature globali (terra+oceano), nel periodo che va da inizio secolo al 2013, cioè quando i due forti El Niño 1997-1998 e 2015-2016 non le hanno influenzate (o lo hanno fatto in minima parte), sono rimaste praticamente costanti come si vede nella successiva figura 1.
Da novembre 2011, ogni mese scarico dal sito NOAA (Climate At a Glance o CAG) le temperature globali, e da aprile 2015 anche le temperature dell’oceano globale, da cui ricavo varie informazioni, come, ad esempio, le pendenze dei singoli dataset mensili calcolate, rispettivamente,
- dai dati completi (1880-2018 in questo caso) e
- usando come data iniziale gennaio dei tre anni 1951, 1997, 2001
Questi ultimi tre anni non sono scelti a caso:
- il 1951 è uno degli anni possibili per l’ingresso massiccio nella rivoluzione industriale iniziata circa un secolo prima; secondo l’ipotesi AGW, è l’anno a partire dal quale il riscaldamento dipende quasi esclusivamente dai gas serra, in quanto l’IPCC non trova nient’altro che possa aver contribuito ad esso (vedere anche le righe iniziali di questo articolo di Javier); dall’osservazione di figura 2, è anche l’anno in cui termina la rapida salita delle temperature iniziata nel 1910 e seguita, dal 1940, da una brusca discesa terminata, appunto, nel 1951;
- il 1997 è l’anno finale di una salita delle temperature iniziata nel 1977-78, dopo un periodo di stasi dal 1951, ed è immediatamente precedente El Niño 1997-98;
- il 2001 è la data che ho indicato in questo mio post su CM per l’inizio della “pausa” delle temperature globali NOAA.
Si può anche vedere un altro mio post, in cui sono descritti dati NOAA cambiati all’interno dello stesso mese, attorno alla parte centrale del 2015.
Ad esempio, se uso come data iniziale il 1951 e l’ultima serie disponibile è dicembre 2018, calcolo la pendenza delle serie mensili fino a marzo 2018 (che indico con 1803), per ottenere graficamente quanto riportato in figura 3.
In figura 3 appare evidente una discontinuità della pendenza tra aprile e maggio 2015. Questa discontinuità dipende da una variazione nel calcolo delle temperature, come si vede nell’immagine gif animata relativa al 1951 (nel sito di supporto sono disponibili le gif animate per tutti i periodi). La pendenza tra aprile e maggio 2015 calcolata nel periodo 2001-2015 mostra un raddoppio (da 0.05 a 0.10°C/decade) come ad esempio si vede nella figura 9 di questo post.
Se considero solo i dati successivi ad aprile 2015 osservo che le pendenze mostrano una salita (anche particolarmente accentuata) tra maggio 2015 e aprile 2016; una successiva salita meno ripida con 3-4 mesi di stasi e il raggiungimento di un massimo assoluto a luglio 2017; da questo momento inizia una lenta ma costante diminuzione mensile della pendenza che negli ultimi tre mesi (da ottobre 2018) sembra essersi stabilizzata.
La pendenza è in ogni caso positiva (la temperatura cresce) e quindi l’andamento positivo indica una crescita accelerata; quello costante una crescita uniforme e quello negativo una diminuzione del ritmo di crescita (un rallentamento della crescita).
È abbastanza facile immaginare che da circa maggio 2016 ad oggi le pendenze possano essere considerate costanti, data la dimensione delle incertezze, ma sembra possibile pensare che la iniziale crescita continua, seguita dalla decrescita, sia un indice che qualcosa stia cambiando nell’andamento delle temperature globali.
Da notare che questo cambiamento non deve essere confuso con la pausa (lo iato) delle temperature che è indiscutibile: qui l’influenza dei molti mesi precedenti condiziona a lungo il calcolo della pendenza della serie.
Il metodo usato da Javier
L’articolo di Javier su WUWT, citato all’inizio, mi trova d’accordo. Quando ho affrontato il problema della persistenza (cioè della memoria a lungo termine presente nella maggioranza delle serie climatiche), ho tentato di superarlo (e spero di esserci riuscito, v. ad esempio qui e i due post precedenti citati) utilizzando le differenze prime dei dati osservati, perché questo processo riduce fortemente o elimina la persistenza (è come calcolare la derivata prima quando il passo il dei dati è costante).
Javier usa il “tasso di cambiamento della temperatura” (in °C/anno) che non è altro che la derivata prima, ovvero la differenza prima con dati a passo costante.
Io calcolo da anni questa differenza per i dati NOAA annuali e per me è facile seguire Javier e calcolare il fit parabolico delle differenze per i dati annuali fino al 2018: lo mostro in figura 5 insieme a un suo ingrandimento che evidenzia l’anno del massimo della parabola.
Si vede chiaramente che il massimo della parabola si ha nel 1994, in questo confermando quanto Javier afferma e mostra nella sua figura 4. Le temperature sono cambiate in senso positivo fino al 1994, per poi iniziare una diminuzione. Questo fatto mi vedrebbe concorde con Javier se, calcolando la stessa grandezza fino all’anno 2017, non trovassi che l’aggiunta di un valore ai 57 precedenti modifica di dieci anni il massimo della parabola che ora è il 2003, come si vede in figura 6.
Pur condividendo il metodo, e pur ricavando da questo informazioni che sembrano attendibili o almeno ragionevoli, dico che è troppo sensibile ad un singolo valore per fornire qualcosa diverso da una semplice indicazione.
In conclusione: esistono metodi diversi che forniscono un’indicazione sul tasso di variazione della temperatura globale (NOAA per me, HadCRUT4 per Javier) e tutti concordano con la presenza di un massimo e di una successiva diminuzione di tale tasso. La posizione del massimo dipende dal metodo, ma dovremo ragionevolmente aspettarci variazioni nel senso della diminuzione del ritmo di crescita delle temperature.
Tutti i dati relativi a questo post si trovano nel sito di supporto qui |
Caro Donato, nel caso generale della parabola sono d’accordo con te e anche io preferisco il (molto più laborioso) metodo di condizionare i singoli fit con tutti i dati disponibili al momento.
Il problema del fit parabolico applicato alle derivate (al tasso di incremento delle temperature) è quello della grande dispersione dei dati associato a quello della piccola curvatura della parabola (somiglia molto ad una retta) con incertezze annesse.
Per fugare ogni dubbio sottolineo (non per te) che i fit che contano sono questi delle derivate, non quelli graficati in rosso dei miei valori, che sono
puramente descrittivi.
Aspetto con curiosità le tue considerazioni su persistenza ed ENSO. Ciao.
Franco
Caro Franco, ogni qualvolta si cerca di approfondire la questione dei dati e si tenta di derivarne delle conseguenze fisiche, ci si trova sempre di fronte a problemi come quelli che evidenzi nel tuo post: a seconda della finestra temporale che si va ad analizzare, cambiano un po’ tutte le conclusioni.
In questo caso specifico capita tanto con il fit lineare che con quello parabolico.
Ho l’impressione, però, che, nel caso del fit parabolico una parte della responsabilità debba essere fatta ricadere sul tipo di curva. La parabola è una curva un po’ strana: nel suo vertice presenta tangente orizzontale (se essa ha asse parallelo a quello delle ordinate, ovviamente), per cui consente di individuare l’esistenza di massimi o minimi, punti, cioè, in cui si ha un’inversione del trend. In una disciplina come la climatologia, in cui la variazione di pendenza è fondamentale per individuare punti singolari a cui far corrispondere eventi particolari, questo fatto può sembrare positivo, ma la parabola gioca brutti scherzi: cambiando il dominio, cambia anche la posizione del vertice ed il punto singolare va a farsi friggere. Ciò dipende, secondo il mio modesto parere, principalmente dal fatto che i dati non sono una funzione quadratica del tempo.
Detto in altri termini, considero molto più significativo il metodo che hai utilizzato per cercare i punti di variazione della pendenza negli articoli che hai pubblicato qualche anno fa, che questo basato sul fit parabolico.
.
In merito ad altre due questioni che hai sollevato nel post (eliminazione della persistenza ed influenza dell’ENSO sul clima terrestre globale), proprio in questi giorni sto studiando un articolo molto interessante che penso di commentare qui su CM nei prossimi giorni. In quella sede spero di poter sviluppare qualche considerazione in più su entrambe le questioni.
Ciao, Donato.
ho avuto l’opportunità di usare uno strumento chiamato psicrometro formato da due termometri, uno immerso in acqua ed uno in aria e serviva per misurare l’umidità.
Credo che bisognerebbe correlare la temperatura con l’umidità per avere una idea climatica più realistica.
Non contesto gli strumenti matematici della statistica, ma i dati su cui si lavora.
Ora, non è un mistero che la climatologia è usata a scopo politico per influenare l’elettore su quale scelta economica intrapprendere.
Negli anni ’70, a seguito della crisi petrolifera, si diffondeva la previsione di un raffreddamento globale, magari per far accettare le centrali nucleari, oggi si prevedono tempi roventi per far accettare l’idea di utilizzare il litio.
Leggevo in rete che i dati dei satelliti sono stati ricorretti in quanto non rispondevano agli stessi valori di quelli a terra.
Non è una novità che scienziati bluffano per validare una ipotesi, del resto, anche loro sono esseri umani con tutte le debolezze ed i pregi del caso.
Del clima, ne possiamo parlare solo al passato, avendo però dati consistenti.
Onestamente titubo un po’ quando leggo di temperature ricavate in base alla concentrazione di CO2 all’interno di carote di ghiaccio; se non sappiamo ancora se la teoria AGW è corretta non possiamo stabilire valori di temperatura misurando quel parametro gassoso e così per tutte le misure ricavate in maniera indiretta.
Articolo interessante che dimostra un aspetto fuorviante della statistica: in base a come elaboro i dati ottengo il risultato voluto.
Considerando un intervallo di 10 anni, ottengo un risultato, uno diverso considerando un periodo di 20, uno ancora diverso se considero 30 anni.
Non solo la scelta del periodo influsisce, ma anche i dati presi come campione: nel 1930 (do numeri a caso solo per farmi intendere) c’erano 5000 stazioni delle quali il 70% distribuite nell’emisfero nord concentrate nei paesi più progrediti; nel 1960, 10000 stazioni con una ancor diversa distribuzione e concentrazione; nel 2000 sono aumentate le stazioni di rilevamente ed in più sono disponibili rilevamenti satellitari.
Statisticamente, non è corretto mettere a raffronto dati odierni con quelli di 100 anni fa, perchè il campione non è omogeneo.
E’ lo stesso errore che si incorre usando la statistica per valutare aspetti sociali, in cui esce fuori un “uomo medio” che (ad esempio) ha 1 seno, 1 testicolo, 1,5 figli, è alto 1,56cm e pesa 72kg e guadagna 18.000 €/anno.
Anche se la statistica è un potente mezzo matematico per valutare e conoscere aspetti della natura, esso va ben calibrato ed i risultati presi con le dovute cautele.
In più, per quanto riguarda le temperature (che non è l’unico parametro per definire un clima, c’è anche la piovosità, la pressione, l’umidità, etc) bisogna anche valutare se un termometro rimasto sempre nello stesso posto non ha visto il proprio ambiente cambiare nel tempo; se 100 anni fa era in aperta campagna, ora si trova in una periferia con le ovvie conseguenze di misurare apporti termici urbani dovuti ai riscaldamenti dei termosifoni, all’albedo dell’asfalto, ed ad altri fattori responsabili delle isole di calore.
In conclusione, ci stiaamo dannando l’esistenza per valutare ed intrapprendere azioni che possano far variare la temperatura del pianeta in funzione dei nostri bisogni ed esigenze.
Una operazione ideologica ed opportunistica.
In buona parte sono d’accordo con lei sulla statistica: i suoi dati devono avere certe caratteristiche e solo in quel caso si ottengono i risultati previsti dalla teoria. E’ anche vero, però, che ci sono statistiche particolari che permettono di elaborare correttamente dati che a prima vista non sembrano “buoni” (per fare l’esempio più semplice, campioni di piccole dimensioni: approfitto dell’occasione per ricordare che un campione NON è un sottoinsieme della popolazione ma è un sottoinsieme con alcune caratteristiche stringenti, senza le quali l’oggetto resta appunto un
sottoinsieme e non diventerà un campione). Sono disponibili anche tecniche per elaborare dati “sparsi” o dati che non permettono l’uso della statistica normale (nel senso di gaussiana) ma che possono essere trasformati per (sperare di) ottenere risultati significativi (ad esempio quelli dotati di persistenza).
Un altro aspetto di cui tenere conto è che la climatologia ha a che fare con dati non omogenei (temporalmente e spazialmente) che subiscono pesantemente modifiche incontrollabili (anche controllabili ma che non vengono controllate,
come le stazioni meteo che cambiano strumenti senza sovrapposizione tra vecchio e nuovo per verificare e calibrare le differenze- a volte non è possibile). Tutto questo porta i dati climatici ad avere grandi incertezze
e questo fatto è provato dall’uso molto frequente di una confidenza del 95% (1.96 sigma). Ma bisogna anche ricordare che quelli sono i dati che abbiamo
a disposizione e che siamo costretti ad usarli, e non sempre al meglio “statistico”. Questo è uno dei motivi per cui, come nelle figure 3 e 4 uso risultati derivati (le pendenze da un numero crescente di dati) e non le derivate prime come fa Javier e, come ho scritto, faccio io spesso: secondo me i dati che uso io sono più “normali”, più elaborati e meno sensibili alle fluttuazioni delle anomalie “osservate” (si fa per dire).
D’altra parte tutti in tutto il mondo usano gli stessi dati nello stesso modo e se ci si vuole confrontare bisogna fare altrettanto.
Le operazioni “ideologiche e opportunistiche” si possono immaginare ad esempio nella modifica, sempre nello stesso senso, delle temperature “osservate”: faccio fatica ad immaginarle in operazioni così semplici come quelle descritte qui (mie o di Javier) dove le dispersioni sono tanto alte che chiunque può facilmente ammettere un errore da qualche parte.
Grazie comunque per l’interessante commento. Franco