Steven E. Koonin è un fisico teorico, attuale direttore di un campus universitario a New York. Suppongo che possa essere difficile mettere in discussione la sua competenza in fisica, né mi sogno di farlo. Mi viene quindi un dubbio: come mai è anche un po’ scettico in materia di cambiamenti climatici? Possibile che uno studioso del suo livello non si sia reso conto della soverchiante evidenza del disastro climatico che ci aspetta?
Un momento, forse la risposta è più semplice del previsto. Koonin è convinto di due cose: la scienza del clima è tutt’altro che definita e l’effetto perturbante che le attività antropiche possono avere sul sistema climatico è quantitativamente minimale, almeno nel breve e medio periodo.
Mi sono imbattuto in questo personaggio in apparenza sconosciuto, ma in effetti molto noto nell’ambiente scientifico oltreoceano, leggendo la bozza di dichiarazione sui cambiamenti climatici che l’American Physical Society ha recentemente redatto e sottoposto ai membri dell’associazione. Una dichiarazione breve e divisa in tre parti che Judith Curry, anch’essa membro dell’APS definisce così: la parte relativa alla scienza del clima è piuttosto sorprendente, quella relativa ai cambiamenti climatici sembra essere uscita da un rotocalco (nella fattispecie il Guardian, nota testata che professa l’attivismo climatico) e la parte relativa alle policy ricalca quanto di folle era stato dichiarato dall’associazione nel 2007.
Ma non è di questo che voglio parlare, un giorno mi piacerebbe commentare una tale iniziativa intrapresa da qualche istituzione nostrana, ma questo non è dato evidentemente. Piuttosto parliamo di una serie di piccole scomode verità che Koonin ha esposto recentemente in un suo articolo apparso sul Wall Street Journal, da egli stesso ripreso e spiegato proprio sul blog della Curry. Solo delle pillole di scienza del clima si potrebbe dire, ma medicine che rischiano di essere alquanto indigeste per chi è convinto che domani aprirà la porta di casa e troverà un mostro climatico ad aspettarlo.
In sostanza, pur nel pieno di tutte le sue forze, l’effetto antropico potrà eventualmente perturbare il sistema si e no per 1-2 punti percentuali in termini di effetto serra, una dimensione largamente e facilmente superata e superabile in termini di ampiezza dalla variabilità naturale – vedi l’attuale persistente assenza di riscaldamento significativo. Piccole cause, quindi, con piccoli effetti che per essere compresi necessitano di una capacità osservativa molto più elevata di quanto si possa fare attualmente.
I numeri? Vengono tutti dall’IPCC, quindi, con buona pace delle vestali del clima, sono tutti numeri su cui c’è consenso, per quel che vale. Per esempio l’immagine in testa a questo post mostra il bilancio radiativo, cioè quanta energia entra, quante ne esce e quanta rimane nel sistema. La variazione a questo bilancio indotta direttamente dal forcing antropico al netto delle reazioni del sistema (tutte da definire) è stimata in 2.3 ± 1 W/m2, cioè l’1% dell’effetto serra che c’è già e lo 0,5% della totalità del flusso diretto verso la superficie. Un’enormità, non è vero? Per sincerarvene, basta andare a leggere il post di Koonin linkato qualche riga più su.
Buona domenica.
[…] http://www.climatemonitor.it/?p=37881 […]
Stento a credere che se la maggior parte (97%) dei modelli danno la stessa previsione (ricostruzione) sbagliata allora sono comunque utilizzati perché in accordo tra loro!Potrebbe avere un qualche senso se i modelli non fossero “sensibili” rispetto ai dati iniziali (è così? ) ;si potrebbe sostenere che i modelli non hanno una sufficiente risoluzione temporale… però funzionano sul medio/lungo periodo… (volendo fare l’avvocato del diavolo)
Scrive G. Guidi: “Solo delle pillole di scienza del clima si potrebbe dire, ma medicine che rischiano di essere alquanto indigeste per chi è convinto che domani aprirà la porta di casa e troverà un mostro climatico ad aspettarlo.”
.
La previsione contenuta in questa breve frase si è verificata in modo clamoroso: complimenti! 🙂 🙂
Su Climate etc, in barba alla netiquette ed alla politica del sito, Koonin è stato ferocemente attaccato, anche a livello di insulto gratuito, da Eli Rabett e un certo …and Then There’s Physics (ATTP). Quest’ultimo, fisico di professione che cura un blog con lo stesso nome, ha addirittura inviato una lettera a Koonin in cui si dimostra costernato per il fatto che un fisico metta in dubbio un fatto “certo, appurato dalla ricerca scientifica in decenni di ricerca”.
.
La cosa che più mi ha meravigliato è il diverso tono della lettera e dei commenti su Climate etc. Nella lettera, a parte la costernazione, si parla di principi fisici su cui si può discutere e la stessa rientra nei canoni tipici della discussione scientifica. Nei commenti, invece, il tono oltre ad essere triviale è quello tipico della polemica tra scettici e sostenitori della linea di pensiero principale: muro contro muro su questioni di dettaglio. Il primo a sollevare il problema è stato Nick Stokes, attivo nel dibattito climatologico e sostenitore dell’AGW, ma esemplarmente corretto e molto autorevole, almeno secondo il mio punto di vista. Egli ha fatto notare che l’1% di un qualcosa di molto grande è esso stesso un qualcosa di molto grande: essendo l’effetto serra grande, l’1% di esso è qualcosa di grande. La cosa è logica e su di essa si può discutere (sulla questione possiamo registrare fino ad oggi centinaia di commenti che, ovviamente, non ho letto integralmente in quanto ho anche altro da fare 🙂 ).
Su questa questione sensata si è scatenato prima ATTP e poi Eli Rabett ed altri commentatori.
La questione su cui essi insistono è facilmente riassumibile, purgandola, però, dai principi fisici che i polemisti pongono a base della loro discussione. Koonin sbaglia in quanto le sue percentuali sono sbagliate di un ordine di grandezza. Le percentuali corrette, secondo loro, sono 10% e 20% in quanto l’effetto serra produrrà una variazione (energetica e termica) compresa tra 3K e 6K che rappresenta il 10/20% di 33K. Koonin, invece, ha fatto i conti con un denominatore pari a 255/288K.
I 255/288K di cui parla Koonin sono le temperature assolute della Terra senza e con effetto serra, i 33K di ATTP e Rabett sono la differenza dei primi due. L’accusa che ATTP e company rivolgono a Koonin è di giocare su questi numeri dimenticando che la fisica ha ormai assodato (su base modellistica, ovviamente) che la manopola del riscaldamento globale è la CO2 e che il riscaldamento globale da essa determinato, sarà compreso tra 3K e 6K. Questo si deduce, però, dalla lettera di ATTP a Koonin, non dai commenti al suo post che sono tutti tesi a dimostrare il banale errore (secondo loro) di calcolo di Koonin. Detto in altri termini si cerca di demolire la credibilità dell’autore sulla base di un presunto errore banale per cui tutto ciò che egli scrive (e che non viene in nessun modo contestato) diventa poco credibile a causa dell’errore banale anzidetto: uno che sbaglia le percentuali che autorità può mai avere? 🙂
Fulgido esempio di dibattito scientifico (si fa per dire, ovviamente).
Ciao, Donato.
Cercando qualcosa sui modelli matematici utilizzati dai climatologi mi sono imbattuto in un lavoro di Georgiadis e Mariani del 2006 pubblicato sulla rivista italiana di agrometereologia (mariani1.pdf scaricato da www. agrometereologia.it).In estrema sintesi il problema che mi ponngo è: siccome i modelli utilizzati non hanno previsto la pausa nel riscaldamento (questo mi pare assodato) allora sono “sbagliati”; mi chiedo se sia possibile sapere dove sta l’errore (avendo a disposizione il modello matematico utilizzato); cioè, è un problema di “sensibilità” rispetto ai dati iniziali? Oppure il modello non è particolarmente sensibile ai dati iniziali e quindi, forse, è sbagliato (incompleto…?).In particolare, nel lavoro citato, si afferma che i modelli che “confermano” il ruolo della CO2 nel riscaldamento globale lo fanno perché sono “costruiti” per farlo; non sarebbe possibile avendo a disposizione i modelli utilizzati testarli fino al 1980 e poi vedere se prevedono quel che è seguito? (Il fatto che questo non venga fatto viene detto nell’articolo).Mi piacerebbe avere qualche punto fermo.
Gentile Daniele,
la sua domanda finale andrebbe posta ai tanti ricercatori che fanno oggi girare GCM. Io non sono in condizione di farlo ma da modellista ho sempre pensato che un modello dev’essere calibrato su certo un periodo di tempo e poi validato su un altro periodo, temporalmente indipendente. Se su quest’ultimo periodo il modello funziona sarà passibile di uso operativo, altrimenti no. L’impressione è tuttavia che tale visione galileiana non sia accettata dal mondo dei GCM (e tantomeno richiesta dai “clienti” politici), per cui a tutt’oggi si procede più che altro per “intercomparisons” (se più modelli sono in agreement fra loro allora tutto va bene).
Come elemento accessorio osservo che se i GCM vengono “accordati” (tuning) sulla fase di riscaldamento 1977-1998 il risultato è che:
1. i modelli descrivono bene il periodo 1977-1998 ma non riescono poi a seguire la fase di stazionarietà post 1998,come si evince dal diagramma visibile qui (http://wattsupwiththat.com/2013/10/14/90-climate-model-projectons-versus-reality/), nel quale le prestazioni di 90 modelli sono comparate con i dati di misura (da reti al suolo Hadcrut4 e d satellite MSU).
2. i modelli stessi non riescono a simulare in modo accurato il riscaldamento degli anni 30 ed il successivo raffreddamento degli anni 50-60, fenomeni che vengono considerati frutto di variabilità naturale (ad esempio questo emerge bene da un paper pubblicato di Gillet et al nel 2008 su Nature dedicato alla ricostruzione con GCM delle temperature artiche).
In sintesi dunque i GCM sono guidati soprattutto da CO2 per cui non riescono a seguire la variabilità naturale che ha tuttora un peso determinante nel far fluttuare le temperature globali.
In altri termini lasciando stare i GCM e pensando a semplicissimi modelli empirici di tipo regressivo si può evidenziare che la fase di riscaldamento degli anni 30-40 ed il successivo raffreddamento degli anni 50-60 si possono simulare con estrema accuratezza per mezzo di un semplice modello multiregressivo che tenga in considerazione gli indici AMO e PDO mentre un modello regressivo che vada solo a CO2 non combina nulla di buono.
Tutto rumore per soldi