Nella serie di articoli di Massimo Lupicino appena pubblicata, compaiono due figure essenziali per la comprensione del dibattito in materia di clima. Sono la figura del perito, colui cioè che fornisce e certifica l’informazione e quella del giudice, che emette la sentenza di colpevolezza (in questo caso degli uomini tutti o quasi) per le sopraggiunte modifiche del sistema climatico.
Oggi ci aggiorniamo con l’ennesima prodezza di uno dei periti la NASA, sul quale tra l’altro – per manifesta contiguità con il perito numero 1, la NOAA – non si è parlato più di tanto nella serie suddetta.
Lo spunto viene da questo tweet:
The temperature manipulators at NASA at work. Funny isn’t it, climate science seems not to use any error bars. https://t.co/bP0nq34S6t
— Per Strandberg (@LittleIceAge) 25 luglio 2016
In sostanza, nella news della NASA cui fa riferimento il cinguettio, si parla di un articolo uscito nell’ultimo numero di Nature Climate Change, la rivista scientifica spin off di Nature interamente dedicata al tema del cambiamento climatico. Questo articolo:
Projection and prediction: Climate sensitivity on the rise
Sensibilità climatica in aumento, se riferita alle proiezioni. L’articolo è ovviamente a pagamento e le sole tre righe di descrizione non spiegano gran che, però nella news della NASA è tutto più chiaro.
L’andamento osservato delle temperature medie globali passato e attuale non concorda con le previsioni. Secondo gli autori di questo articolo, il problema non è nelle previsioni, ma nelle osservazioni, che non renderebbero bene l’idea di quanto sta accadendo, al punto di aver nascosto sin qui circa il 20% del riscaldamento del pianeta. All’origine del problema, il deficit di copertura (densità) delle osservazioni, la differenza tra terraferma e superficie del mare e il progressivo scioglimento dei ghiacci artici nelle decadi recenti.
Sicché, non potendo aggiungere altri dati osservati, hanno pensato di “educare” i modelli di simulazione a mimare questo deficit osservativo, trovando che la media dei modelli utilizzati va così molto più d’accordo con le osservazioni.
Andrebbe tutto bene, se non fosse che le osservazioni rappresentano ciò che è, mentre i modelli ciò che immaginiamo possa essere. Correggere le prime con i secondi e valutare quindi che il mondo si è scaldato di più di quanto realmente è stato (ove per realtà si intende ciò che è effettivamente misurabile e non ipotizzabile, fino a prova contraria), significa entrare definitivamente nel campo della metafisica, almeno per quel che concerne il clima.
Enjoy
[…] Autore: Guido GuidiData di pubblicazione: 04 Agosto 2016Fonte originale: http://www.climatemonitor.it/?p=41945 […]
Mi dispiace deludere le speranze di Teo, ma mi sa che quella illustrata nel post di G. Guidi, sia la nuova frontiera della climatologia. In Hawkins et al., 2016 che ho commentato qualche settimana fa si scrivono esattamente le stesse cose che in Armour, 2016.
.
Hawkins et al., 2016 scrive infatti che la pausa potrebbe essere un artefatto di calcolo legato in massima parte all’incompletezza della rete di misurazione globale delle temperature che avrebbe portato ad una sottovalutazione del riscaldamento in alcune zone del pianeta. I modelli avrebbero, quindi, individuato in modo corretto il riscaldamento planetario, ma i dati non lo avrebbero evidenziato a causa di una carenza nella distribuzione dei termometri e nel fatto che le temperature marine che determinano quelle medie globali, sono inferiori a quelle atmosferiche a causa della forte inerzia termica degli oceani.
http://www.climatemonitor.it/?p=41859
.
Il solco mi pare abbastanza ben definito. 🙂
Ciao, Donato.
Questi oceani, con la loro “forte inerzia” hanno rotto… Bisogna fare qualcosa per rimetterli in riga 🙂 🙂 🙂
Svuotiamoli tutti.
Confesso, temevo questa deriva. Un carissimo amico e collega una volta disse, scherzando, non mi date dei dati veri che mi incasinano il modello, noi sperimentali ridemmo, i modellisti si adombrarono. La storia inizio’ con le tecniche di gap filling dove, in presenza di dati mancanti, un sistema intelligente ne aggiungeva per ricollegare la serie utilizzando delle procedure statistiche. A me questa cosa non è mai particolarmente piaciuta perché credo all’esistenza di discontinuità e in questo modo ci immaginiamo un mondo liscio quando poi liscio non è. Non conosco il lavoro in questione e, probabilmente, rischio di parlare a vanvera ma da quello che leggo sul post capisco che se i dati non mi piacciono allora faccio senza. Qui finiamo nella teleonomia dove prima mi immagino dove devo arrivare, poi guardò del mondo quello che fa comodo alla mia ipotesi iniziale. Questa metodologia è sicuramente molto utilizzata in politica ma non credo che faccia parte del linguaggio della scienza. Nella scienza gli unici dati che si scartano sono gli out-layer e lo si fa con grandissima attenzione, giustificando sempre il perché. Anzi, se ce ne sono troppi devo interrogarmi sul fatto che il processo può avere spiegazioni concorrenti. Spero veramente che il post sia dovuto ad una lettura distratta, ma conosco troppo bene l’autore per pensare che si distragga durante queste letture.