Qualche settimana fa ho pubblicato un post per segnalare un articolo di Nicola Scafetta appena uscito sul GRL, questo qui:
Clima e previsioni: I modelli sono inadeguati, la sensibilità climatica è bassa
Successivamente, grazie ad una segnalazione ricevuta su twitter, ho trovato un commento all’articolo di Scafetta pubblicato su Real Climate:
Issues and Errors in a new Scafetta paper
Ne ho trovato anche subito la traduzione su climalteranti.it, sia mai che a qualcuno potesse sfuggire nell’attento panorama italiano di salva pianeta (agevolo il link per chi volesse leggerlo in italiano).
Questi i temi posti (e spiegati) dal commento:
- Non è stato tenuto conto dell’incertezza nei dati osservati.
- Non si sono considerate le singole simulazioni ma solo le medie di insieme (ensemble mean) dei modelli.
- È stato applicato un test statistico che garantisce l’esclusione di qualsiasi episodio particolare di variabilità interna se il segnale forzato è ben vincolato.
Così, ho chiesto direttamente a Nicola cosa ne pensasse e, come sempre dovrebbe accadere in materia di confronto scientifico, ecco di seguito la sua replica che, al pari di quanto hanno fatto da Real Climate, andrà alla rivista.
- Lo scopo del lavoro non era di valutare singoli modelli e neppure le loro singole simulazioni ma tre insiemi di modelli caratterizzati da diversi valori dell’equilibrium climate sensitivity (ECS). Si utilizzano 1.5-3.0°C, 3.0-4.5°C e 4.5-6.0°C. Per questo scopo è sufficiente usare le medie dei modelli. Infatti, lo scopo ultimo del lavoro era di capire quale dei tre range fosse il più probabile e il risultato dell’analisi dà che sono i modelli con una bassa ECS ad essere i più compatibili con i dati. Schmidt et al. argomentano che ci sono anche 2-3 modeli con valori medi ed alti di ECS che producono valori relativamente vicini ai dati e che c’è persino qualche singola simulazione che dà valori più freddi dei dati. Ma questo è del tutto irrilevante se tutti gli altri modelli della stessa categoria mostrano valori decisamente più alti. Quindi, anche la loro analisi di fatto conferma i risultati visto che la stragrande maggioranza delle simulazioni che loro riportano sono ben più calde dell’osservazione, anche includendo il 95% livello di confidenza che loro calcolano.
- L’errore macroscopico che Schmidt et al. fanno riguarda la valutazione dell’errore della media dei dati (ERA5T2m) calcolata dal 2011 al 2021. Loro ritengono che essa sia +/- 0.1°C (al 95% livello di confidenza) e questa è l’area rosa visibile nella loro figura. Loro usano quest’area per argomentare che una minoranza di simulazioni singole dei modelli con media e alta ECS cade dentro quest’area e che quindi le mie conclusioni non sarebbero del tutto giustificate. La loro logica è basata su due gravi errori statistici. Infatti, l’errore della media non è 0.1°C ma può essere calcolato essere circa 0.004°C, che è il motivo per cui è stato ignorato. Infatti, l’errore della media è dato da sigma/N^0.5 dove sigma non è la deviazione standard dei dati (come hanno frainteso) ma quella dell’incertezza sui dati. Nel caso della temperatura la sequenza dei dati può essere descritta dall’equazione y_t = x_t + e_t. Dove x_t è la sequenza del segnale fisico. Quindi, l’errore della media lo si calcola usando la deviazione standard della sequenza degli errori {e_t}. Su scale mensili questi dati climatici hanno un errore medio di 0.05°C al 95% di confidenza, e quindi su una media di 11 anni o 132 mesi, l’errore della media è 0.05/132^0.5=0.004 °C al 95% di confidenza. Quindi tutto l’argomento di Schmidt et al. basato sulla loro figura con la larga banda rosa crolla miseramente perché la vera banda rosa non sarebbe visibile e distinguibile dalla linea rossa. Uno si può rendere facilmente conto dell’assurdità dei conti di Schmidt et al. se si fa l’operazione opposta e dalla loro stima dell’errore della media di 0.1°C su un periodo di 11 anni si deduce quale errore i valori mensili delle temperature dovrebbero avere: infatti l’errore mensile dovrebbe essere 0.1*132^0.5=1.14°C. Quindi secondo Schmidt et al. i dati climatici contengono un errore statistico mensile di fatto più grande del riscaldamento globale dal 1900 ad oggi e molto più grande della risoluzione dei termometri meteorologici, cosa che ovviamente non si trova scritta da nessuna parte perché l’errore mensile tipico degli ultimi 50 anni di questi dati è di circa 0.05°C.
- Riguardo il calcolo statistico usando le simulazioni singole, l’averlo fatto non avrebbe cambiato i miei risultati. Infatti, l’ipotesi da testare è dove il riscaldamento osservato dal 1980-1900 al 2011-2021 si sistema relativamente alla distribuzione di tutte le simulazioni. Ora, prendendo nuovamente la loro figura (ed ignorando tutti gli altri dati), per i modelli con una bassa ECS si osservano 21 simulazioni più fredde e 18 più calde dei dati, quindi i dati sono centrati sulla distribuzione delle possibili simulazioni. Al contrario, per i modelli con una media e alta ECS, si contano 6 simulazioni più fredde e ben 132 simulazioni più calde, come è anche chiaro dalla loro figura. Quindi è chiaro che 96% delle simulazioni singole di tali modelli sono più calde dei dati, cosa che mostra che è quasi impossibile usare questi modelli per riprodurre il record osservato. Quindi, l’ECS più probabile è quella bassa, cioè ECS < 3°C come calcolo nel mio lavoro.
Il tema dell’ECS, come già detto nel primo post, è cruciale, come lo è la capacità dei modelli di fornire delle indicazioni attendibili. Al di là di queste interessantissime dissertazioni, appare chiaro che a) si conferma la tendenza che si trova negli ultimi anni in letteratura di una ECS probabilmente piuttosto bassa, cosa che non giustifica toni allarmistici e, b) abbiamo maledettamente bisogno di migliorare lo skill delle simulazioni e degli scenari, altrimenti la cura si rivelerà inevitabilmente peggiore del male.
Quando uscirà la replica di Scafetta di rivista fatecelo sapere!
ma piuttosto che affidarsi ad astruse statistiche, per sapere quale potrebbe l’effettiva sensibilità climatica della CO2 (quindi escludendo tutti gli altri fattori climatici che non possono essere filtrati dall’esame della serie di dati) non basterebbe fare un esperimento sempli semplice?
Si prenda una camera contenente i gas atmosferici, si prendano della lampade per simulare la radiazione solare, si faccia variare la % di CO2 all’interno della camera e si misuri la temperatura a diverse concentrazioni.
Aggiungiamo sul fondo, per abbellimento funzionale, anche del terreno, del cemento, delle vaschette d’acqua per simulare la superfice su cui si rifletteranno le radiazioni e che innonderanno lòa camera di raggi infrarossi.
Poi magari si analizzano statisticamente queste serie di dati per capire, magari, come la CO2 si raffredda quando non c’è radiazione incidente.
Mi hanno insegnato che l’esperimento è un passo fondamentale nel processo del metodo scientifico.
Perchè non tentare di inventare esperimenti reali piuttosto che creare mondi virtuali su cui fare esperimenti virtuali?
In natura, credo, la sensibilità climatica non è solo funzione della CO2, ma anche delle superfici su cui incide la luce e della biosfera. E stanno lì, a portata di mano:
perchè inventarsi modelli che, come visto, non rappresentano null’altro che il clima che gira all’interno del modello?
Concordo. Le vestali dell’AGW utilizzano argomenti banali ma semplici da capire e alla portata di tutti (anche la mia): fa caldo, piove di meno, i ghiacci si sciolgono e, siccome pare non sia mai successo prima, è sicuramente colpa delle attività umane sul pianeta!
Da anni leggo le vostre argomentazioni basate sul rigore scientifico e su statistiche riferite a lunghe serie di misurazioni verificate. Tutto materiale di grande valenza ma di scarsissimo appeal divulgativo. Propongo di spremere le vostre fertili meningi allo scopo di escogitare un esperimento il cui risultato possa essere compreso persino dall’ultimo siringueiro nella foresta amazzonica.
L’idea di Rocco non è male. Ma accendere senza fiammiferi una pira di legna posta su un altare di travertino sarebbe meglio.
O qualcuno ci aveva già pensato?
Galileo ha perso anni della sua vita a realizzare semplici esperimenti e sappiamo come è andata a finire. Solo che anche prestando il telescopio a qualcuno che non vuole vedere, costui continuerà a non vedere, e ci accusera’ anche di essere dei visionari. Non so quanto tempo ci vorrà, ma non lo userei certo per convincere chi non vuole essere convinto. Il discorso si fa ancora più interessante se per associazione, come avvenne per Galileo, le sue conclusioni servirono per aprire gli occhi su tante altre mistificazioni. Forse è per questo che si cerca di rimanere nel vago e nel complesso. Comunque con 2 grafici e 5 minuti ancora riesco a spiegare e convincere buona parte dei miei interlocutori, e non mi sembra di faticare tanto come forse accadde a Colombo.
Buongiorno Colonnello
Tanti soldi buttati a cercar di prevedere e controllare una cosa di cui non si può nei due verbi sopra espressi.
“…sappiamo anche che queste condizioni climatiche, nel futuro e anche nell’attualità, sono in qualche modo condizionate dalle attività antropiche, ed è abbastanza inevitabile che si continui a profondere il massimo sforzo possibile nel progresso della conoscenza per definire questo ruolo e porre in essere tutto ciò che dovesse essere necessario per far sì che questo ruolo sia minimizzato.” ( intervista su meteoweb.it)
Cioè…..mi sta diventando ipcciano?? Sono frastornato…
Saluti e buon lavoro!!
In qualche modo… 🙂