Circa una settimana fa ho pubblicato su CM un post in cui veniva commentato uno studio (S. Bronnimann e colleghi) che riconosceva, seppur in maniera implicita, alla Piccola Era Glaciale (PEG) un carattere globale, in quanto i segnali di un raffreddamento del clima dell’emisfero boreale, trovavano riscontro in dati di prossimità di carattere globale (variazioni del contenuto di calore oceanico e modifiche del monsone indiano, in modo particolare).
Tale circostanza è, però, negata in modo categorico da uno studio, i cui risultati sono stati pubblicati quasi contemporaneamente a quelli di Bronnimann et al., 2019 su Nature:
No evidence for globally coherent warm and cold periods over the preindustrial Common Era
a firma di R. Neukom, N. Steiger, J. J. Gómez-Navarro, J. Wang & J. P. Werner (da ora Neukom et al., 2019)
Neukom et al., 2019 è basato su una serie di dati di prossimità che provengono un po’ da tutte le parti del globo e che costituiscono la base di dati utilizzata dal Consortium 2k per la ricostruzione delle temperature globali, nota come PAGES 2k pubblicata nel 2013 e rettificata nel 2015, a causa del gran numero di errori individuati, tra gli altri, da S. McIntyre. Si tratta di ricostruzioni di dati climatici (soprattutto temperature) derivate da carote di sedimenti oceanici, dendrologici (spessore degli anelli degli alberi), coralli, carote di sedimenti lacustri e via cantando. I registri paleoclimatici utilizzati nello studio sono circa 600 e sono distribuiti su tutto il globo terrestre (di cui però solo 200 utilizzati in modo sistematico), per cui, almeno in prima battuta, sembrano essere in grado di offrire una ricostruzione completa del clima terrestre nel corso degli ultimi duemila anni. Lo studio dimostra che quelle che noi definiamo “ere climatiche moderne” sono fenomeni molto localizzati e non hanno affatto respiro globale. E questo vale tanto per il Periodo Caldo Romano (PCR), quanto per il Periodo Caldo Medioevale (PCM) e la Piccola Era Glaciale.
Ho volutamente utilizzato la locuzione “almeno in prima battuta”, in quanto, approfondendo la questione, si scopre che la maggior parte del periodo indagato, viene caratterizzato attraverso un numero molto ridotto di registri di dati di prossimità: qualche decina. Il numero di registri utilizzati per ricostruire il clima passato, diventa, infatti, significativamente consistente a partire dal 1200/1300. Se si vanno ad esaminare, inoltre, le tipologie di registri analizzati, si vede che la stragrande maggioranza dei dati di prossimità sono di origine dendrologica. Essi sono localizzati, infine, quasi tutti nell’emisfero boreale e solo una manciata di serie proviene dall’emisfero australe (cinque, per la precisione). Diverso è il caso dei registri glaciali e coralligeni che appaiono meglio distribuiti sull’intero globo. Il problema è che i dati desunti da indagini sui coralli, coprono in modo soddisfacente solo un periodo molto breve rispetto a quello analizzato: dal 19° al 20° secolo.
Tutta questa premessa si spiega con l’assunto che i ricercatori hanno posto a base del loro lavoro: l’apparente globalità delle ere climatiche moderne deriva dal numero molto basso di dati di prossimità presi in considerazione. Un’analisi approfondita del tipo di dati di prossimità utilizzati da Neukom et al., 2019, dimostra che quello che loro consideravano un bias di altre ricerche, affligge anche la loro, almeno per i primi 1200/1300 anni dell’Era Comune (dopo Cristo, per intenderci).
Accertato, pertanto, che la copertura spaziale dei dati non è affatto omogenea, cerchiamo di capire come si può stabilire la coerenza temporale del fenomeno climatico preso in esame. Per effettuare un confronto tra due serie di dati, bisogna esaminare i dati dell’una e dell’altra e determinarne lo scarto. Più esso è piccolo, più le due serie sono simili. Per accertare se un fenomeno climatico ha carattere globale o regionale, quindi, bisogna andare a vedere se il caldo registrato in un punto, corrisponde al caldo in un altro punto del globo (coerenza spaziale) e che i due picchi di caldo siano contemporanei (coerenza temporale).
Per quel che riguarda la temperatura terrestre, con l’avvento dei satelliti meteorologici siamo stati in grado di monitorare in modo uniforme il globo terrestre. Lo stesso non si può dire per le altre tipologie di misurazione: i punti di rilevamento non sono distribuiti uniformemente e, pertanto, bisogna interpolare pesantemente le misure, per calcolare le temperature in punti del globo ove non esistono stazioni di misura. Tutto ciò in quanto abbiamo bisogno di determinare i valori di temperatura nei nodi di una griglia che avvolge, idealmente, l’intero pianeta. Con i dati di prossimità il discorso è ancora più complesso: poche decine/centinaia di dati devono essere spalmati sull’intero pianeta.
Neukom et al., 2019 segue questa strada: divide la superficie terrestre sulla scorta di una griglia avente maglie di lato 5°x5° (la stessa utilizzata dai principali centri di ricerca climatica) e calcola i valori delle temperature nei nodi di questa griglia. Se per i termometri siamo abituati ad interpolazioni su distanze di centinaia di chilometri, per i dati di prossimità arriviamo ad interpolazioni/estrapolazioni di migliaia di chilometri.
E con questo abbiamo sistemato la distribuzione spaziale dei dati utilizzati nello studio. La parte più difficile è, però, la sincronizzazione temporale dei dati presi in esame. Considerata la risoluzione dei dati di prossimità, è francamente impossibile sincronizzare serie distanti nello spazio e nel tempo. A meno che non si faccia pesantemente ricorso alla matematica e, in particolare, alla statistica.
E in Neukom et al., 2019 di statistica, probabilità e matematica in genere ne troviamo a iosa. Il problema di fondo resta, però, sempre lo stesso: mentre i metodi di analisi statistica, probabilistica e matematica hanno una loro intrinseca esattezza, non altrettanto vale per i dati cui essi sono applicati. Mi spiego meglio. Se io eseguo una campagna di misure sperimentali di una grandezza fisica con un unico strumento e per un lungo periodo di tempo, escludendo errori sistematici e grossolani, le metodiche analitiche portano a valori della misura che si avvicinano alla verità in tutto l’arco temporale indagato. Sono secoli che lo facciamo e ci riusciamo benissimo. Il problema sorge allorché noi applichiamo tali metodologie a dati molto eterogenei come quelli di prossimità: se i dati di partenza sono imprecisi, anche le conclusioni lo saranno, indipendentemente dal livello di sofisticazione delle metodologie analitiche.
In Neukom et al., 2019 si cerca di verificare che i livelli di temperatura siano contemporaneamente alti (bassi) in tutto il globo nelle varie epoche climatiche prese in considerazione. Se consideriamo la PEG, per esempio, si cerca di calcolare la percentuale della superficie del globo terrestre che in un certo anno sia stata più fredda della media dell’intero periodo. Per giungere a questo risultato essi utilizzano il seguente procedimento. Scelgono innanzitutto delle serie di dati di prossimità con risoluzione annuale e ricostruiscono con metodi analitici le temperature degli anni mancanti. Per far ciò, ovviamente, si trascurano tutti i registri di dati con risoluzione maggiore di un anno (che sono la maggioranza). Tutte le serie di dati vengono calibrate con i dati strumentali del periodo 1911-1995 e vengono validate con i dati del periodo 1881-1910. Queste operazioni che io ho descritto in modo banale, in realtà, sono frutto di pesanti elaborazioni statistiche basate su modelli autoregressivi che consentono di ricostruire le temperature a partire dai dati di prossimità.
Una volta determinati i campi di temperatura nei nodi della griglia, Neukom et al., 2019 cerca di stabilire, punto per punto, i valori della temperatura durante le ere climatiche moderne. Allo scopo di rendere il processo il più oggettivo possibile, si utilizzano delle finestre di 51 anni all’interno delle quali si cerca di individuare il picco caldo (se si indaga un periodo caldo) o freddo (se si indaga un periodo freddo). Combinando tra loro tutti i risultati ottenuti, si giunge alla conclusione che i periodi freddi e quelli caldi nell’era pre-industriale non coincidono, globalmente, né da un punto di vista spaziale, né da un punto di vista temporale. Ciò a livello annuale. Se l’indagine viene condotta a livello decadale o multidecadale, invece, comincia ad essere ben visibile tanto una coerenza spaziale che temporale.
Il discorso cambia relativamente al periodo caldo moderno (quello attuale). Per tale periodo si nota, infatti, come la coerenza temporale e spaziale sia quasi perfetta.
A conclusione di questa disanima, cui non allego alcun grafico o diagramma anche perché facilmente accessibili consultando l’articolo originale, solo qualche considerazione personale.
La metodologia utilizzata da Neukom et al., 2019, presenta il pregio di aver introdotto un metodo oggettivo per individuare i picchi di temperatura, senza lasciarsi influenzare dal fatto di trovarsi in un periodo caldo o freddo. Le altre metodologie utilizzate fino ad ora, invece, consentivano di adattare i dati alla convinzione soggettiva del ricercatore e, quindi, i risultati erano viziati da un certo “bias confermativo”.
Il suo principale limite consiste, a mio avviso, nel fatto che i dati utilizzati sono quasi esclusivamente quelli dendrologici e quelli derivanti dallo studio dei coralli (l’ottantacinque per cento del campione) in quanto sono gli unici ad avere una risoluzione annuale. Ciò trasferisce nello studio tutte le perplessità connesse alla ricostruzione delle temperature a partire dagli anelli degli alberi e che ho già trattato in passato qui e qui su CM. Resta inoltre la forte polarizzazione del campione utilizzato nell’analisi: quasi tutti i dati dendrologici provengono dall’emisfero boreale, mentre quelli relativi all’emisfero australe sono poco rappresentati. Questo problema non è risolto dall’utilizzo dei dati provenienti dallo studio dei coralli, in quanto questi ultimi coprono essenzialmente gli ultimi due secoli. Ne deduco che la coerenza spaziale e temporale della distribuzione delle temperature a livello globale nel periodo caldo moderno, potrebbe essere un artefatto di calcolo connesso all’abbondanza di campioni nel periodo più recente. Viceversa la scarsità di campioni nei periodi temporalmente più distanti dai giorni nostri, potrebbe aver reso meno certa la mancanza di coerenza spaziale e temporale dei dati di temperatura delle altre ere climatiche. Queste conclusioni si basano anche sul fatto che la calibrazione e verifica dei dati di temperatura, ricostruiti a partire dai dati di prossimità, sono state effettuate confrontando le temperature ricostruite con quelle del periodo moderno (strumentali).
Volendo esprimere un giudizio conclusivo circa la globalità o meno delle ere climatiche moderne, alla luce dei risultati dei due studi commentati, non mi sento di esprimere un giudizio definitivo, anche se, mettendo insieme tutti gli altri indizi raccolti nel corso di questi anni di studio, tendo a considerare la PEG, il PCR ed il PCM fenomeni globali e non locali.
Grazie per la segnalazione. Per il resto credo che ENSO possa essere effettivamente il mediatore tra i due emisferi. Anche gli autori dell’articolo gli attribuiscono un ruolo nella variabilita’ climatica globale. Ciao, Donato.
Gentile professor Barone,
Potrebbe essere interessante approfondire lo studio di Perner et al. (2018): https://www.sciencedirect.com/science/article/pii/S0277379117305930.
Gli autori forniscono prove di condizioni climatiche e oceaniche interemisferiche coerenti durante il medio e tardo Olocene, suggerendo l’indice ENSO come mediatore.
Lavorando sulle correnti oceaniche intorno all’Australia, gli autori segnalano che la dominanza di fasi simili a El Niño si verificano parallelamente ai periodi freddi del Nord Atlantico (viceversa per i periodi in cui dominano stati simili a La Niña).
Se importanti eventi di raffreddamento e riscaldamento sono registrati nell’offshore dell’Australia, una qualche globalità delle fasi climatiche del pianeta ci puo’ stare.
Grazie per l’attenzione.
– prof., che media ha mio figlio?
– suo figlio ha la media del 6
– che bravo, ha 6 in tutte le materie – pensa – dovrò fargli un regalo per la promozione.
A fine A.S.
– ecco, figlio mio, questo è il regalo per la promozione…
– no mamma, sono stato rimandato in due materie.
– ma come, non avevi 6 in tutte le materie?
– avevo la media del 6, ma avevo 8 in religione ed educazione fisica e 4 in italiano e storia.
Questo è un esempio di come viene percepita la media: i valori che la compongono hanno tutti lo stesso valore della media.
Ed è in base a questa errata percezione che si basa la pseudoscienza della climatologia globale che pretende di prevedere il futuro ad 80 anni!
” I valori come la media…forniscono singole sintesi numeriche di insiemi di valori numerici. Ma… i singoli valori sintetici possono essere fuorvianti. In particolare i valori singoli possono discostarsi di molto dai vari valori di un insieme di numeri… Quello che manca, quando ci basiamo su una media per sintetizzare un insieme di dati, è una indicazione di quanto i dati si disperdano attorno a quella media” (da Statistica di David J. Hand, codice edizioni 2012, p.39)
Ci si chiede se i periodi chiamati PEG, PCR,PCM siano stati globali o locali.
Perchè, questo riscaldamento attuale è globale?
Tra 1000 anni un futuro climatologo si potrà porre la stessa domanda e scrivere un paper in cui dimostra che questo attuale periodo è stato un riscaldamento locale.
Penderà, per esempio, i dati satellitari (tipo questi http://www.drroyspencer.com/2019/08/uah-global-temperature-update-for-july-2019-0-38-deg-c/ ) e noterà che l’emisfero Nord era più caldo di quello Sud.
Poi, ricostruirà i livelli dei ghiacci e noterà che il polo Nord si scioglieva più velocemente (https://nsidc.org/data/seaice_index/ ), mentre il polo Sud no (https://nsidc.org/data/seaice_index/ ), eccetera e concluderà che si trattava di un riscaldamento locale, proprio come Neukom et al., 2019 ha cercato di dimostrare per i passati periodi citati.
Ritorna l’ errata percezione della media con cui si valuta il clima globale; siamo tratti a pensare che un innalzamento della temperatura media di 0,2° per decennio (come dicono) equivale a dire che su tutto il globo le temperature si sono alzate simultaneamente di 0,2° per decennio!
E’ un errore di percezione del valore “media” usato per riassumere una serie di dati.
Quel lavoro citato è carta straccia come buona parte di tutta la climatologia globalista che vorrebbe ridurre ad un solo valore (la media) quelle che sono le diversissime possibilità climatiche presenti sul pianeta.
Vi sono diversi climi (non uno solo) e sono rappresentati da caratteristiche come:
temperatura;
umidità;
pressione;
radiazione solare;
precipitazioni;
nuvolosità;
vento.
Ed i fattori climatici che possono produrre variazioni sono:
latitudine;
effetto serra;
albedo;
altitudine;
orografia;
correnti marine;
vegetazione;
urbanizzazione;
attività umane;
irradianza solare; eccetera
Ed anche solo una variazione locale (una infezione virale che uccide i batteri fotosintetici https://www.cell.com/current-biology/fulltext/S0960-9822(16)30359-1 ) può causare effetti a livello globale.
A mio parere, non si tratta di confutare dati con dati, ma di comprendere che già dalla definizione di clima ” lo stato medio del tempo atmosferico a varie scale spaziali (locale, regionale, nazionale, continentale, emisferico o globale) rilevato nell’arco di almeno 20-30 anni” sia insita la diabolica percezione umana che farebbe intendere che il clima debba essere stabile (trattandosi di una media che, come visto, appiattisce tutti i dati).
E di fatti, le variazioni dei valori dei periodi sono chiamate “anomalie” (definizione: Irregolarità, difformità dalla regola generale, o da una struttura, da un tipo che si considera come normale), le stesse anomalie che concorrono a definire la media con cui vengono definite le anomalie; un pensiero circolare!
La media del periodo è percepità come “normale”, ossia come ciò che dovrebbe essere e non, invece, come sintesi di un insieme di valori.
E questo da adito a delle errate percezioni sia sui risultati che sulle conseguenze.
Oggi, siamo impegnati a far si che il clima sia perfettamente allineato con la media, ossia che, come riteneva la mamma, che il figlio aveva 6 in tutte le materie.
Alla fine, non si tratta di realtà fisica, ma di percezioni psichiche: mi convinco che il clima debba essere stabile e mi preoccupo perchè varia: il che mi crea un problema di adattamento e chiedo di far qualcosa affinchè tutto ritorni nella media.
Questa è psicologia, non fisica dell’atmosfera!
Vi è questa religione dell’ambientalismo (a cui aderiscono anche tanti scienziati) e per dimostrare il valore scintifico di questa religione, gli stessi scienziati credenti producono ricerche che convalidano il pregiudizio religioso.
Un esempio è questo https://www.pnas.org/content/116/20/9808 in cui i religiosi vorrebbero dimostrare che le iniquità economiche sono accresciute dai cambiamenti climatici, non da sistemi sociali, non da sistemi economici, non dall’esplosione demografica… ma dal fatto che il clima naturale non rispetta quel clima stabile, desiderato psicologicamente, che una media ci vorrebbe far credere esistente nella realtà.
La cosa interessante è che la lotta assurda ai cambiamenti climatici aumenta ancora di più la forbice economica tra ricchi e poveri, costringendo questi ultimi a pagare di più per beni e servizi con la scusa che sia necessario per combattere la CO2 che causa i cambiamenti climatici.
Scommetto che, nel caso di colonizzazione di marte, qualche scienziato si inventi la climatologia del sistema solare… anche gli scienziati sono esseri umani che hanno bisogno di assumere entropia negativa per mantenere l’omeostasi e tutto fa brodo pur di garantire il fine. Le pseudoscienze non cesseranno mai di essere proposte se contribuiscono al mantenimento dell’omeostasi.