L’amico Donato mi perdonerà l’incursione nel suo post e nel suo titolo, ma non ho potuto resistere in presenza dell’ennesimo segnale di chiara deriva fantascientifica della ricerca sul clima. Niente da dire, quanto commentato tra poco sarebbe ottimo per la sceneggiatura di una bella climate fiction…
gg
Attratto da un lancio dell’ANSA, caratterizzato da una foto con la statua della libertà immersa nell’oceano fino alla cintola e circondata da iceberg, ho cercato e trovato l’articolo cui la notizia faceva riferimento. Si tratta di uno studio a firma di una decina di studiosi tra cui spiccano M. E. Mann e K. A. Emmanuel, ma la cui prima firma è Andra J. Garner, pubblicato su PNAS da qualche giorno (da ora Garner et al., 2017).
Impact of climate change on New York City’s coastal flood hazard: Increasing flood heights from the preindustrial to 2300 CE
Ho letto l’articolo e sono restato alquanto sbigottito. L’articolo è basato esclusivamente su analisi modellistiche e, in particolare, di quattro modelli di circolazione globale della suite CMIP5 oltre diversi altri modelli che vengono utilizzati per trattare gli output dei GCM utilizzati o per simulare il comportamento del ghiaccio. I modelli di circolazione globale operano, come ben sanno i lettori di CM, su scala planetaria o emisferica e sono poco affidabili a scale inferiori (ammesso che lo siano alle scale per cui sono stati progettati). La cosa strabiliante di questo articolo è che gli autori cercano di quantificare il rischio di inondazioni connesso ad uragani e/o tempeste tropicali, di un’area estremamente piccola del pianeta: New York e dintorni, per la precisione.
Si tratta di un progetto di ricerca, secondo il mio modesto parere, molto ambizioso (per usare un eufemismo) perché non credo proprio che un GCM sia capace di generare output in grado di consentire di studiare l’evoluzione nel tempo delle tempeste tropicali. Eppure Garner et al., 2017 è stato in grado di prevedere l’evoluzione delle tempeste tropicali e degli uragani da qui al 2100 e, in un caso, addirittura fino al 2300. Per capire di che cosa stiamo parlando bisogna fare un po’ di mente locale. Un uragano è una macchina termodinamica paragonabile ad un motore e schematizzabile, grosso modo, con un ciclo di Carnot. Detto in altri termini si tratta di un sistema termodinamico determinato da parametri di stato come la pressione e la temperatura. Prevedere il comportamento di un uragano è un’operazione estremamente complessa e difficile e non sempre si riesce a individuare con certezza la velocità del vento, il punto di impatto e l’intensità delle piogge. Ciò a distanza di giorni. In Garner et al., 2017 si è cercato di stabilire le traiettorie degli uragani nell’Atlantico nei secoli futuri.
Gli autori hanno calcolato diverse migliaia di “tempeste sintetiche” e ne hanno studiato i percorsi. Sulla scorta delle elaborazioni effettuate, Garner et al., 2017 ha potuto stabilire che, a seconda degli scenari di emissione, l’evoluzione degli uragani nell’Oceano Atlantico fino al 2100 ed anche oltre, non sarà fonte di problemi per la città di New York, in quanto ad un aumento dell’intensità delle tempeste tropicali e degli uragani previsto dai modelli, corrisponderà una variazione delle traiettorie delle tempeste che dovrebbe limitare gli impatti delle stesse sulla città. Detto in termini semplici, le tempeste saranno più violente, ma toccheranno terra più lontano da New York e, quindi, gli effetti futuri non saranno molto diversi da quelli attuali.
Il problema è costituito, però, dal livello del mare. Secondo Garner et al., 2017 il livello del mare futuro non è facilmente determinabile. E su questo sono completamente d’accordo. Ciò su cui sono meno d’accordo è che gli autori sostengono che a causa dell’effetto serra il livello del mare aumenterà molto più di quanto possiamo immaginare. Ciò perché i modelli accoppiati oceani atmosfera sono poco abili nel prevedere il comportamento del ghiaccio terrestre e, quindi, sottovalutano gli effetti dell’aumento di temperatura sui ghiacci terrestri. Di primo acchito sono stato tentato di chiudere la pagina e passare ad altro, ma ho deciso di continuare nella lettura. Se un modello è poco abile a prevedere qualcosa, logica vorrebbe che non si prendessero in considerazioni i risultati delle sue elaborazioni. Gli autori sono del parere, invece, che tali risultati debbano essere presi in considerazione ed addirittura rivalutati in quanto essi sono dell’avviso che le “evidenze fattuali” dimostrano che i ghiacci si sciolgono più velocemente di quanto prevedano i modelli. Su questo non sono assolutamente d’accordo in quanto esistono numerosi studi che sostengono l’opposto. Di queste problematiche mi sono occupato diverse volte qui su CM, per cui sono abbastanza sicuro del fatto che prevedere l’andamento futuro del livello del mare è un’impresa ardua in quanto abbiamo grosse difficoltà a quantificare il contributo dell’aumento del contenuto di calore degli oceani che determina l’aumento di volume degli stessi e le variazioni di massa dei ghiacciai continentali a causa della scarsa conoscenza dell’assestamento isostatico. Nonostante tutte queste incertezze che sono consegnate in molti articoli scientifici soggetti a revisione paritaria, i nostri eroi sono riusciti a quantificare l’aumento del livello del mare nell’area di New York ed hanno potuto stabilire che il rischio di inondazione della città tenderà ad aumentare nel futuro. Sulla base delle previsioni di emissione dello scenario RCP8.5 (quello peggiore, per intenderci), Garner et al., 2017 arrivano ad ipotizzare per la fine del 23° secolo, delle onde di marea di circa 15 metri più alte rispetto a quelle dell’epoca pre-industriale.
Ciò ha consentito di calcolare un aumento del rischio di inondazione della città di New York. In estrema sintesi mentre in epoca pre-industriale le onde di marea che superavano i 2,25 metri avevano un tempo di ritorno di circa 500 anni, negli anni 1970-2005 hanno avuto un tempo di ritorno di 25 anni circa e, a partire dal 2030/2045, esse avranno un tempo di ritorno di circa 5 anni. In altri termini la città di New York sarà quasi una nuova Venezia con l’acqua alta.
Nel commentare un articolo scientifico è mia abitudine descrivere in modo piuttosto dettagliato le metodiche di elaborazione dei dati e sviluppare delle considerazioni sulle conclusioni cui i ricercatori giungono. In questo caso faccio un’eccezione in quanto dovrei usare delle parole inadeguate per definire un articolo scientifico. Mi limito a dire che non sono riuscito a trovare un aspetto del lavoro che meriti una considerazione. Essendo l’articolo completamente libero, chiunque voglia può leggerlo e, qualora giungesse a conclusioni diverse dalle mie, sarò lieto di discuterne con lui.
Buongiorno:
difficile catalogare lo “studio” citato… sono indeciso fra “spazzatura” e “horror fantascienza”.
Basta leggere le prime righe dello “studio” stesso, tipo queste:
“Coastal flooding poses a major risk to New York City (NYC), which has nearly 49.7 million built square meters and 400,000 people living within the 100-y floodplain (1).
The coastal flood risk was illustrated in 2012, when Hurricane Sandy’s storm surge of 2.8 m above the mean tidal level (MTL) at the Battery tide gauge produced an estimated $50 billion of damage to the region (2).”
Se si va a leggere la referenza (1), Kemp et al., si scopre che gli autori identificano la “land subsidence”, l’abbassamento del suolo, come principale responsabile dell’innalzamento del livello dell’oceano atlantico lungo la costa est degli USA:
“Contribution of relative sea-level rise to historicalhurricane flooding in New York City”
http://onlinelibrary.wiley.com/doi/10.1002/jqs.2653/epdf
… che dice cose come queste:
“Between the 1788 hurricane and Hurricane Sandy in 2012, RSL rose by 56 cm, including 15 cm from glacio-isostatic adjustment. ”
560 mm in 224 anni… fanno 2.5 mm/anno di media.
“Storm surge characteristics and timing with respect to astronomical tides remain the dominant factors in determining flood height. ”
Il “timing”, la coincidenza temporarale, con le maree astronomiche e’ uno dei due fattori dominanti nel determinare l’altezza dell’acqua nell’evento mareale: infatti nel caso di Sandy, portato ad esempio dagli autori dello “studio”, fu la concomitante “super luna”, la luna piena che in quel periodo dell’anno spesso e volentieri amplifica le maree, a far salire di un piede circa (30 cm) la cresta della marea. Tali 30 cm addizionali furono fondamentali come causa dell’innondazione del metro di Manhattan, e lo stop a gran parte delle attivita’ finanziarie e commerciali/turisitiche della citta’ di NY. I miliardi di danni citati NON sono danni materiali, ma principalmente mancate attivita’ finanziarie… circa 4 miliardi di dollari al giorno quando tutto gira come deve girare.
Basterebbe dire che l’anno prima di Sandy ci fu Irene che fece salire il livello dell’acqua a livelli simili a quelli di Sandy, ma senza l’apporto fondamentale della super-luna, i 30 cm che innondarono Manhattan. Tutto documentato, per’altro… non mi sto inventando nulla.
Ovviamente queste cose gli autori dello “studio” non le dicono.
“However, RSL rise will raise the base level for flood heights in New York City and exacerbate flooding caused by future hurricanes.”
Di nuovo, gli “studiosi” dimenicano di dire che la maggior parte dell’aumeno dell’ “RSL”, che sta per relative sea level, e’ dovuta all’abbassamento del suolo lungo la costa, NON dall’innalzamento del livello del mare a causa della terribile CO2 assassina.
Qui siamo solo alle due prime frasi dello “studio”… e possiamo fermarci, perche’ il resto e’ dello stesso tenore.
Le, scusate il termine, “”pippe statistiche” in appendice sono folkloristiche, dimostrano solo che con la statistica si puo’ dimostrare tutto ed il contrario di tutto. Non a caso uno degli autori dello studio e’ il celeberrimo Michael Mann, l’inventore dell’hockey stick climatico.
Ci sono decine di studi seri, basati sui DATI, e non sui modellini farlocchi come fa questo “studio”in oggetto, che mostrano come gran parte della costa atlantica USA sia soggetta a fenomeni di subsidenza, naturali e non, che NULLA hanno a che fare con il globbbal uormin’ assassino…. per esempio questo report del NOAA:
https://tidesandcurrents.noaa.gov/publications/NOAA_Technical_Report_NOS_COOPS_073.pdf
… che dice cose come questa:
“U.S. Northeast (NE) Coast. There has been a significant increase of nuisance flooding occurrences along the U.S. NE Atlantic Coast (Figure 4b) largely in response to high regional SLR rel rates (approximately 3-5 mm/yr) from vertical land subsidence (Boon et al., 2010; Zervas et al., 2013) most notable in the Mid-Atlantic region and lower Chesapeake Bay”
… che conferma che l’aumento delle “nuisance flooding”, cioe’ allagamenti periodici di solito in coincidenza con le alte maree tipo quella di Sandy (nel 2015 e 2016 si sono ripetute, se non ricordo male), e’ dovuto principalmente alla subsidenza, cioe’ all’abbassamento del suolo, e in parte minore all’innalzamento del livello dell’oceano (che si sta alzanda dalla fine della Little Ice Age, se non prima).
Potrei elaborare molto piu’ in dettaglio, con dovizia di citazioni bibliografiche peer-reviewed, e documenti ufficiali, ma mi fermo qui, per non dilungarmi troppo.
Per concludere, suggerisco di non perdere tempo a leggere lo “studio” in oggetto… non vale molto.
Saluti a tutti.
R.
Roberto, ti ringrazio per i molteplici punti dell’articolo che hai commentato e per i preziosi riferimenti alle fonti cui hanno attinto Garner e colleghi: io non ero arrivato a tanto, lo confesso 🙂 .
Le tue considerazioni confermano tutte le mie perplessità in merito a questo studio. Esso è stato, però, pubblicato su una rivista prestigiosa dopo revisione tra pari. Quando mi imbatto in situazioni del genere, resto sempre piuttosto perplesso: possibile che riesco, io che di professione non faccio lo scienziato, ad accorgermi che c’è qualcosa che non va, mentre per i revisori va tutto bene?
Tu hai dimostrato in modo puntuale quanto io avevo solo intuito e riassunto in modo piuttosto sommario e ciò aumenta ancora di più le mie perplessità: ciò che hai portato alla nostra attenzione era tutto alla luce del sole, accessibile a chi il paper lo ha revisionato, eppure ….
Mah, nella vita non si finisce mai di imparare! 🙂
Ciao, Donato.
‘Esso è stato, però, pubblicato su una rivista prestigiosa dopo revisione tra pari.’
Purtroppo, caro Donato, in molti casi il peer-reviewing (revisione fra pari) si è trasformato in pal-reviewing (revisione fra amici).
Molti dei pezzi grossi della claque climatocatastrofistista sono reviewers delle principali pubblicazioni, per esempio…
goo.gl/QXjhoZ
… puoi avere un esempio.
Il blog è di donna laframboise, una blogger/giornalista canadese che si occupa da di ‘esporre’ i punti oscuri della macchina IPCC.. se ti capita di trovare una copia del suo libro ‘the delinquent teenager’, su rajendra pachauri e l’IPCC e la creazione del consenso climatocatastrofista troverai mille esempi documentati… da far accapponare la pelle… dottorandi nominati responsabili di interi capitoli dei rapporti IPCC, per esempio.
… scusatemi… ho dimenticato una cosa, sulla faccenda del peer-reviewing:
https://climateaudit.org/2011/06/22/pnas-reviews-preferential-standards-for-kemp-mann-et-al/
“About 10 days ago, we discussed the PNAS reviews of the recent submission by Richard Lindzen, a member of the National Academy of Sciences with a distinguished publication record.
A few days ago, PNAS published Kemp et al 2011, a submission by one of Mann’s a graduate student [from the University of Pennsylvania].
While, in this case, we do not have access to the reviews, it is possible to make conclusions about the review process of the Mann article both on the limited information in the article and on the basis of the article itself.
The Kemp article states in its masthead: Edited*
by Anny Cazenave, Center National d’Etudes Spatiales (CNES), Toulouse Cedex 9, France, and approved March 25, 2011 (received for review October 29, 2010)
The asterisk says:
*This Direct Submission article had a prearranged editor.
It was certainly generous of PNAS to give a “prearranged editor” to a submission by a graduate student at Penn State.”
… e PNAS e’, guardacaso, la stessa rivista dell’articolo citato in questo blog… 🙂
Caro Donato,
in effetti il tuo atteggiamento è diverso dal solito e credo che questo sia dovuto alla bassa qualità dell’articolo. Siccome mi fido di te, non l’ho letto ma ho guardato le figure S3-S5 con le previsioni modellistiche del “corso” dei cicloni tropicali: tutti i parametri restano costanti o calano al 2100, ma il bello è che i tre modelli usati forniscono risultati palesemente diversi (e/o contrastanti) tra loro. Comunque, facendo finta di crederci, le situazioni tendono a migliorare (ad es. l’altezza delle storm-surges cala drasticamente per poi restare costante, almeno nel primo dei modelli) per cui potremo smettere di preoccuparci, anche se personalmente non ho mai cominciato…
Credo che per ora la statua della libertà riuscirà a salvarsi dell’affogamento e i bagnini potranno evitare corsi speciali per il suo salvataggio. Ciao. Franco
Caro Franco, i risultati dei modelli sono confortanti circa le altezze delle onde provocate dalle tempeste ed è solo invocando un forte innalzamento del livello del mare che aumenta il rischio di inondazioni. I modelli sembra che questa volta siano clementi. 🙂
.
Secondo me il problema è, però, un altro. Come diavolo si può pretendere di simulare la differenza di temperatura e pressione che determinano una tempesta tropicale a distanza di centinaia d’anni? E ammesso e non concesso che ciò sia possibile, come si fa a prevedere il percorso della tempesta con precisioni di qualche centinaio di chilometri quando oggi a tempesta in atto sbagliamo di diverse centinaia di chilometri?
Ho tentato anche di metterrmi nei panni dei ricercatori e fare il seguente ragionamento. Note le temperature della superficie del mare (dai modelli) e quella dell’atmosfera (sempre dai modelli) riesco a prevedere il tipo di tempesta che mediamente tenderà a formarsi. Questa sarà, ovviamente, una tempesta “sintetica” che evolverà e si dirigerà verso terra. Il suo percorso dovrà essere simulato da un altro modello, ovviamente. Modello+modello significa incertezza+incertezza. Se a ciò aggiungiamo il modello per simulare il livello del mare otteniamo ancora ulteriore incertezza. A questo punto mi sono arreso: è come se tirassimo a indovinare in quanto il livello di incertezza delle conclusioni dei modelli è abnorme.
E’ proprio la logica che sottende tutto il discorso che non mi convince.
Ciao, Donato.
@donato
“Modello+modello significa incertezza+incertezza. Se a ciò aggiungiamo il modello per simulare il livello del mare otteniamo ancora ulteriore incertezza”
Esatto. Incertezze… approssimazioni… risultati farlocchi da questi modelli ad ogni angolo…
D’altronde basta “vedere le carte”, in senso pokeristico, a questo “studio”. Nel testo dicono che…
“Changing Storm Characteristics
We downscaled RCP8.5 simulations from three Coupled Model Intercomparison Project Phase 5 [CMIP5 (28)] models [Max Planck Institute Earth System Model (MPI), Coupled Climate System Model 4.0 (CCSM4), and Institut Pierre Simon Laplace Earth System Model (IPSL)] to compare storm-surge heights from the modern period (1970–2005; ∼5,000 storms for each model) with two future time periods (2010–2100 for all models and 2010–2300 for the IPSL model;”
… quindi hanno usato due modelli (serie di codici di calcolo e databases.. piu’ altri “moduli” per farli comunicare fra di loro)… CMIP5 e IPSL.
La cosa da fare, per valutare la precisione e affidabilita’ di questi due modelli, e’ di andare a cercare articoli scientifici che ne descrivano le caratteristiche. Io l’ho fatto (in precedenza, perche’ questo “studio” non e’ l’unico che li utilizza)… e i risultati sono da far cadere le braccia.
Un esempio di cosa intendo dire?
Eccolo:
ftp://oceane.obs-vlfr.fr/pub/lguidi/PRIME/Pubs/kageyama%202012%20part%202.pdf
“Mid-Holocene and last glacial maximum climate simulations with the IPSL model: part II: model-data comparisons”
… nel quale utilizzano DATI (proxies) relativi a due epoche passate (medio Olocene e ultimo massimo glaciale… o come diavolo si traducono dall’inglese) per testare le due versioni del modello IPSL, la 4 e la 5:
“The Last Glacial Maximum and the mid-Holocene are now considered as benchmarking periods to evaluate the capability of the climate models that are used for future climate prediction to represent a different climates (Braconnot et al. 2012).”
Nel testo, nei vari paragrafi dove testano le predizioni dei due modelli rispetto a certe variabili climatiche importanti, si possono leggere cose come queste:
“We found substantial differences between the model results, which are related to differences between the model themselves, or, in the LGM case, to differences in the specified ice-sheet reconstructions.”
… che indica che se la versione piu’ recente, la 5, e’ migliore della 4 i risultati delle due versioni una rispetto all’altra sono “substantial”, ogni conclusione basata sulla versione 4 e’ da considerare sbagliata… dato che NON corrisponde alla realta’ (sempre supponendo che la versione 5 ricalchi la realta’).
Oltre, nel testo dicono ancora:
“Past attempts at simulating the LGM climate have shown that some of the targets provided by marine, ice core or continental data are difficult to match for state-of-the-art climate models… in the sense that they generally simulate an LGM climatic change of the right sign relative to the pre industrial (PI) but too small compared to the reconstructions”
… cioe’ i modelli “ultimo grido” hanno difficolta’ (da definire) a simulare I DATI marini, o di carotaggi di ghiaccio, o di altro tipo (“continental”).
L’unica cosa che fanno giusta e’ quella di indovinare il segno del cambiamento di temperatura dopo la fine dell’ultimo massimo glaciale (positivo si riscalda, negativo si raffredda… immagino)… WOW!… questo potevo prevederlo anch’io senza bisogno di un modello che gira al supercalcolatore per 2 mesi…
Ma continuiamo un po’ a leggere?… per il momento sono arrivato a meno della meta’ della seconda pagina dell’articolo:
“Results show that models produce an enhancement of the monsoon flow and monsoon precipitation in Africa, but tend to underestimate the northward penetration and the intensity of precipitation (Joussaume et al. 1999; Braconnot et al. 2007a).
It is still a challenge to reproduce these changes. ”
Della serie “Anche con i monsoni africani non ci azzecchiamo molto”… 🙂
Andra’ meglio per le simulazioni di un altro continente? Pare di no… frase seguente quella del monsone africano:
“In Eurasia, it was shown that the coupled ocean atmosphere models performed better than their atmosphere-only counterparts, but that models produce too much mid-continental aridity compared to data”
… e mi fermo qui per non annoiarvi… sono arrivato all’inizio della seconda colonna della seconda pagina. 🙂
Modellini farlocchi: se li conosci li eviti, se li conosci non ti uccidono (dalle risate).
Saluti.
Io ne ho viste cose che voi umani non potreste immaginarvi:
navi da combattimento in fiamme al largo dei bastioni di Orione,
e ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser.
[…] Fonte: New York e gli uragani da qui al 2300: praticamente i bastioni di Orione […]