Alcuni giorni fa, insieme all’amico Luigi Mariani, abbiamo pubblicato un commento all’ultima fatica mediatica della rivista Nature, uno studio cui è stata dedicata anche la copertina, in cui si asserisce di aver trovato la prima conferma “formale” dell’aumento di intensità e frequenza degli eventi estremi in ragione del global warming, naturalmente -abbiate fede- di origine esclusivamente antropica.
A pensarci bene, forse dovremmo ritirare il post o quantomeno rivederlo pesantemente. Vi spiego perché.
Nelle chiacchierate tra me e Luigi nei giorni precedenti alla pubblicazione, ci sono venuti molti dubbi sull’attendibilità del dataset di eventi estremi utilizzato, sulla “strana” omogeneità del segnale positivo riscontrato sul territorio americano e sulla tecnica di analisi dei dati impiegata per rendere omogenee le osservazioni con gli output dei modelli al fine di poterli comparare.
Non possedendo gli strumenti idonei ad una analisi così approfondita, abbiamo preferito prendere per buoni questi aspetti dello studio e limitarci a fare delle valutazioni sui concetti espressi, nonché a valutare criticamente l’ovvia risonanza mediatica ottenuta dal lavoro, i cui commenti in sede giornalistica hanno stimolato la fantasia di uno dei soliti noti del panorama climatologico italiano.
Per fortuna, qualcuno che questi strumenti li possiede si trova sempre, così come, purtroppo, si trova sempre qualcun altro disposto a commentare magari mettendoci, come si direbbe a briscola, il carico da 11. Nella fattispecie come accaduto per la Repubblica in Italia, in Francia Le Monde ci ha stampato un paginone, chiamando a commentare Gavin Shmidt della NASA (pagina disponibile per abbonati). In nessuno di questi interventi però, è stato sollevato alcun dubbio.
Dubbi invece fondati, come leggiamo da questa analisi di Willis Eschenbach, pubblicata da WUWT il 21 febbraio scorso. Un alluvione di cattiva scienza, così chiarisce sin da subito la sua posizione Eschenbach. In effetti di materiale sembra essercene parecchio.
In prima analisi il dataset (Hadex). La grafica a supporto dello studio è eloquente (visibile on line in bassa risoluzione perché protetta da copyright), sugli Stati Uniti d’America il trend di aumento degli eventi estremi è forte ed omogeneo. Bene, non si sa da dove sia uscito fuori quel segnale, o meglio sì, è uscito dal cilindro di chi ha condotto lo studio, perché pare che per il 91% delle stazioni USA non ci sia alcun trend significativo per le precipitazioni estreme. Del 9% che rimane, circa il 5% sono soggette a variazioni di ordine casuale. Resta dunque, per confermare quel trend forte ed omogeneo, solo circa il 5% delle stazioni del territorio americano. Sotto dunque con le interpolazioni per generare la griglia del database di Hadex e poi sotto ancora per generare un Probability based Index (PI) che renda i dati già spalmati del dataset più digeribili per gli output dei modelli. I modelli però hanno una griglia diversa da quella del dataset, per cui gli output devono essere adattati alla griglia di Hadex, per fare poi la media degli output dei modelli. Quanto ci siamo allontanati sin qui dalla realtà? Poco probabilmente, perché la realtà nei calcoli non ci è proprio entrata!
Per procedere alla comparazione tra dati osservati e output dei modelli, è stata impiegata una tecnica definita Optimal fingerprints, di recente impiego in climatologia. I requisiti per l’applicazione di questa tecnica sono che la distribuzione dei dati sia gaussiana e che le distribuzioni abbiano all’incirca la stessa ampiezza, altrimenti la tecnica non dà solo risultati scadenti, è del tutto inutilizzabile. Nello studio non c’è traccia alcuna della verifica della “forma” della distribuzione, mentre appare evidente che ci siano delle differenze spaziali importanti.
Tutto questo, partendo da dati che, come abbiamo visto, sono tutt’altro che rappresentativi e che contengono degli errori sostanziali all’origine.
In sostanza, sembra proprio che siano state ignorate le regole base: sono buoni i dati di cui dispongo? A giudicare dall’analisi di Eschenbach si direbbe di no. Come deve essere letta dunque l’ipotesi che il futuro ci debba riservare qualcosa di diverso? Ognuno giudichi per sé, nel post precedente ci sono tutte le coordinate necessarie.
Resta un dubbio, l’ultimo e forse il più grave. Come ha passato il processo di revisione paritaria questo lavoro? E come è arrivato in copertina?
Addendum
Nel numero di Nature in questione, c’è anche un altro articolo che collega l’alluvione dell’autunno 2000 in Inghilterra con il riscaldamento globale, asserendo che in ragione dell’aumento delle temperature, la probabilità che in Inghilterra si possano verificare eventi del genere sarebbe accresciuta del 20%. Eschenbach ha analizzato anche questo, trovandoci parecchie cose interessanti. Tra le tante, che potete leggere qui se credete, il fatto che tutta l’analisi sia stata fatta con dati virtuali, ovvero senza tenere in alcun conto la realtà di quanto accaduto nel periodo in cui si vorrebbe si sia accresciuto il rischio di eventi di questo genere. Non una singola osservazione è entrata nel paper, fatta eccezione per il dataset di rianalisi ERA40 impiegato per le calibrazioni dei modelli, che è di fatto anch’esso un modello.
Tutto ciò ci solleva. Essendo il fattore antropico (in ogni sua forma) frutto della realtà, presto smetteremo di sentirne parlare, perché la realtà non è più oggetto di studio, il suo posto è stato preso dalle simulazioni.
Caro G. Guidi non essere tanto sicuro di poter commentare tutto quello che ti pare (almeno in campo scientifico). Mica sei un “peer”! Chi ti ha dato il permesso di criticare? (Ma guarda un po’ questi dilettanti allo sbaraglio).
Ciao, Donato.
p.s. è carnevale, ogni scherzo vale!
scusi Gianfranco ma non ho capito a chi è rivolta la sfida?
@ antistrafalcione
La sfida di cui ho parlato era rivolta a Eschenbach o in alternativa allo staff di CM, non a lei. Ho l’impressione che lei mi abbia frainteso e mi dispiace. Per essere più esplicito: provate a formalizzare la vostra pretesa confutazione degli articoli di Nature in un articolo come si deve. Buona fortuna!
io onestamente non capisco come ragionate:
– se dico che Eschenbach non applica correttamente la statistica NON al metodo pubblicato da Nature, ma ai dati che lui stesso ha esaminato (E. dichiara di aver analizzato direttamente i dati di partenza e di aver trovato che SOLO il 9% indica una chiara variabilità) mi dite che siamo ridotti a fare percentuali di percentuali; non è così: E. analizza i dati originali e non riconosce il senso del fatto che i dati variabili sono RADDOPPIATI, da 5% a oltre 9%; per la normale statistica questo vorrebbe dire : è cambiata la curva di descrizione, la statistica; esattamente come dice l’art. di nature
– se dico che E. non è uno specialista ufficiale ma un dilettante nemmeno va bene gg mi piglia i giro; ma i dilettanti vanno bene, benissimo se sono bravi; ma non è che tutti i dilettanti sono Einstein; E. non lo è; sembra più un Frigerio-like, diciamo così.La maggior parte dei dilettanti non sono bravi se no sarebbero professionisti.
Per le tecniche di progettazione esperimento cui faccio cenno si trovano ottimi libri e corsi in italiano come per esempio:
http://www.emagister.it/corso_progettazione_e_analisi_degli_esperimenti_doe-ec2469071.htm
costa solo 1000 euro (per i dilettanti). o se no olio di gomito e studiare.
Suggerisco di scrivere una confutazione formale e sottoporla a Nature o a una rivista scientifica concorrente, anche di prestigio inferiore. Buon lavoro.
Posso chiedere per che Università o Istituto di Ricerca lavora Willis Eschenbach?
PS: Secondo le regole della lingua italiana “un’alluvione” si scrive con l’apostrofo.
Reply
Marò…imperdonabile. Grazie.
Chieda, chieda pure.
gg
Prego.
Però guardi che la mia domanda è rimasta senza risposta.
Spero almeno che vorrete raccogliere il suggerimento.
Reply
No, no Gianfranco, io ho risposto. Chieda pure, ma a lui, perché l’esercizio della richiesta della patente per l’impiego del cervello non è affare che ci riguarda. So che altrove è conditio sine qua non per l’ammissione alla parola, ma tant’è, in questo, lo ammetto, sono decisamente poco democratico.
PS: oltretutto, proprio per le ragioni di cui sopra, non lo so e non mi interessa.
gg
Eschenbach si definisce:
Amateur Scientist and Construction Manager
ha detto tutto, credo
Reply
Santo cielo, un capomastro! Non c’è più religione…parlaci tu che a me scappa da ridere…
gg
Caro antistrafalcione,
ero a conoscenza della scarsa qualificazione scientifica di WE e intendevi metterla in evidenza come gg ha capito bene.
Tuttavia anche un dilettante può scrivere un articolo scientifico – se è capace – e proporlo per pubblicazione su una rivista scientifica. E’ appunto quello che ho suggerito. In realtà più una sfida che un suggerimento. E sinceramente dubito che sarà raccolta. Vedremo.
Replay
Provocazione per provocazione, non arrivando neanche alla qualifica di dilettante, non posso certo cimentarmi al riguardo. Posso pero’ leggere e commentare più o meno tutto quello che mi capita per le mani. Nella fattispecie, saro’ ben lieto di farlo sul materiale a vs firma o collaborazione che vorrete segnalare. Divulgazione innanzi tutto.
gg
Mi sono accorto che è saltata la prima parte del commento che avevo scritto. La riporto di seguito.
Vorrei collegare il tema degli eventi estremi col tema dell’accelerazione del ciclo idrico, o, eventualmente, con quello della teoria di Minkowczi (un articolo di Mariani ne ha parlato su questo blog, non ho il link ma a breve lo cerco).
Che ci siano (un po’) più di alluvioni non sarebbe strano se fossero aumentate le precipitazioni in assoluto.
Così il commento è legato al post.
due commenti sul post di eschenbach (e indirettamente sul presnete post):
1) esiste una ben precisa tecnica statistica che si chiama progettazione dell’esperimento che serve proprio a capire in casi del genere se la statistica dei dati è sufficiente a rigettare od accettare l’ipotesi che sia cambiato qualcosa di base nella descrizione dati; si tratta di metodi comuni in climatologia di cui Zwiers ed Hegerl sono esperti; non so invece quanto ne sia esperto Eschenbach il quale non mi risulta abbia pubblicato cose in merito
2) eschenbach ragiona più o meno cosi’; se su totmila casi che analizzo con una indice di confidenza del 95% trovo un 5% di casi che sforano, allora sono nella norma, se ne trovo il 9% come in questo caso la differenza fra 9 e 5 è troppo bassa per dire che è cambiato qualcosa; nella progettazione esperimento il ragionamento è ben diverso; se trovo il 9% di casi che sforano invece del 5% a quel livello di confidenza allora sono quasi al DOPPIO dei casi statisticamente accettabili e l’ipotesi cosiddetta nulla H0, ossia che nulla cambia non è provata, insomma è vera l’altra ossia che sia cambiata la distribuzione; in altre parole che i casi che sforano su 3000 siano 150 va bene al 95%, ma dato che sono 270 sono troppi per interpretarli come una fluttuaziomne statistica alla dimensione del campione considerato;
si tenga presente che se si aumenta l’indice di confidenza la cosa è ancora più forte; al 99% se ne dovrebbero trovare solo 30 e invece se ne trovano 270, 9 volte di più; solo scendendo ad un sigma, avremmo 1000 casi; ma in tal modo abbiamo anche abbassato la qualità dei nostri dati e della nostra statistica;
ne conclud: Eschenbach conosce la statistica come Frigerio su altro post di questo steso sito conosceva la termodinamica della radiazione; triste ma vero.
Reply
Nell’accogliere volentieri l’evidente desiderio di assegnare voti a destra e a manca, accolgo anche la tua obiezione. Non ho dubbi che con le tecniche statistiche si possa far emergere il segnale che si cerca a proprio piacimento (anche questo è ormai usuale nel settore). Resta il fatto che su tot stazioni, il cui margine di errore non è stato neanche investigato (su questo ho taciuto ma tant’è), molte, ovvero quasi tutte, non hanno restituito segnali di aumento degli eventi estremi. Molte meno invece lo hanno fatto. Resta da capire, al termine di queste complesse operazioni per le quali rimedierei di sicuro un pessimo voto, cosa è reale e cosa non lo è. Ma pare che questo non sia più un problema sempre in questo settore.
gg
Ci siamo ridotti a fare le percentuali delle percentuali, dunque?
Se aumentano le precipitazioni in assoluto, incluse le alluvioni su terre emerse, aumenta l’evaporazione. A questo punto forse possiamo dire che il “sistema” Terra reagisce al forcing radiativo non necessariamente aumentando la T per ritrovare l’equilibrio radiativo (secondo la legge di Boltzmann) ma, almeno in parte aumentando il calore latente (sempre facendo riferimento all’art. di Mariani, è ciò che in figura è la freccia indicata con k) .
Per esemplificare, se mi metto un maglione addosso (aumento CO2) non è detto che ne derivi un aumento della temperatura corporea, piuttosto comincio a “sudare”.
Ovviamente la mia è solo un’idea da meno che dilettante, l’analogia vale fino a un certo punto e soprattutto non sono in grado di quantificare il discorso. Però così avremmo un sistema Terra controre azionato, anziché a feedback positivi.
P.S.: scusate se per riassumere sono un po’ criptico
Qualcuno vuole commentare questo? Io l’ho trovato interessante.
http://www.terradaily.com/reports/How_Severe_Can_Climate_Change_Become_999.html
Riporto il finale:
….Climate models have yet to simulate the full scope of the event.
The lack of a complete explanation opens the question of whether an extreme megadrought could strike again as the world warms and de-ices further.
[b]”There’s much less ice left to collapse into the North Atlantic now,” Stager says, “so I’d be surprised if it could all happen again–at least on such a huge scale.”[/b]
Given what such a catastrophic megadrought could do to today’s most densely populated regions of the globe, Stager hopes he’s right.
Stager also holds an adjunct position at the Climate Change Institute, University of Maine, Orono.
Saluti, M.
Reply
Già fatto Maurizio, esce domani mattina.
gg
La descrizione del modo in cui sono stati raccolti i dati da inserire nel modello dà conto di una situazione surreale. Così come è surreale il modo di fare scienza. Ancora più surreale è la suscettibilità di chi fa ricerca scientifica e si arrabbia quando qualcuno cerca di vederci chiaro in quello che viene prodotto dal mondo della ricerca: come osi tu piccolo e spregevole uomo della strada intrometterti in un mondo in cui hanno diritto di parola solo i “pari”? Sei per caso tu un “pari”? No? Allora zitto, altrimenti disturbi e disinformi. Viene da ridere (veramente da piangere). Comunque bando alla tristezza e veniamo a noi. Domani dirò ai miei alunni che il metodo scientifico-sperimentale di galieiana memoria non serve più a nulla. Ormai ci sono i modelli che fanno tutto da soli. Le lunghe e snervanti sedute per effettuare misurazioni il più precise possibile? Non servono più. La teoria degli errori? Stupidaggini del passato come le tavole logaritmiche. Nella scienza, ormai, basta trovare tre o quattro valori (quelli più convenienti) e … voilà, les jeux son fait.
E, infine, per risolvere il problema degli sbocchi lavorativi dei laureati? No problem. Basta trovare il filone giusto, trovare le cose che il manovratore di turno vuole che si trovino e i finanziamenti arrivano senza problemi. Ma la verifica della teoria? No problem anche per questo. Qualche revisore che chiuda un occhio lo si trova sempre e la nostra ricerca vien pubblicata senza problemi. Poveri noi!!!!
Ciao, Donato.
D’altronde Schmidt l’ha detto gia’ tempo fa, i dati non interessano in se’ ma come coadiuvanti allo sviluppo di modelli migliori per il climate change. Analogamente per i satelliti spacciati come osservatori del climate change: di solito sono progettati per funzionare per due o tre anni, troppo poco per osservare il clima. E infatti: il loro scopo non e’ osservare il clima come e’, ma collezionare dati che aiutino a…sviluppare modelli migliori per il climate change.
Solo che poi i modelli non sono mai “migliori”, visto che sono circa 115 anni che l’incertezza della sensibilita’ al raddoppio di CO2 e’ 0-6C. Ma chi se ne importa del mondo, eh??