Qualche tempo fa, in giugno, é stato pubblicato un documento con cui l’IPCC, al termine di un lungo e complicatissimo processo burocratico, ha fatto sue le indicazioni giunte dall’Inter Academy Council nel 2010.
Sottoscrivendo quanto indicato a suo tempo dallo IAC, in sostanza il bureau del panel delle Nazioni Unite, ha ammesso che nel processo di formazione dei suoi report c’è stato rischio di bias, che si deve fare maggiore attenzione all’uso di letteratura grigia (si parla di scienza, per cui tutto ciò che non é soggetto a revisione paritaria deve essere preso con le molle, specie se arriva da parti in causa come le associazioni ambientaliste), che la scelta degli autori del report deve tener conto di eventuali conflitti di interessi, che i vertici del panel devono restare in carica per un solo report e, infine, che il Summary for Policy Makers, il riassunto di ogni report pubblicato a beneficio dei decisori, rischia di essere un documento molto più politico che scientifico.
Pare dunque che tutto questo prima potesse accadere, almeno potenzialmente. Sorge il dubbio di come si sia potuto fin qui ritenere che quanto pubblicato dal panel in materia di clima – quattro report più un certo numero di documenti dedicati a specifici argomenti – possa essere stato considerato la Bibbia del clima o come possano essere state poggiate sulle indicazioni contenute nei report le policy ambientali, economiche ed energetiche di mezzo mondo.
Ma così é stato. Punto. Ora arriverà il nuovo report, sul quale si sta già lavorando da tempo. Non si sa se le buone intenzioni che lastricano il percorso di qui alla pubblicazione ci condurranno all’inferno o in paradiso. Considerando i tempi stretti e il fatto che una cosa é dire di voler fare una cosa, altro é farla, specie se chi la dovrebbe fare sono gli stessi che non l’hanno mai voluta fare, un’idea di come andrà a finire ce l’avrei, ma lascio volentieri il beneficio del dubbio.
Superati gli aspetti di ordine procedurale, quel che più conterà saranno in effetti i contenuti del prossimo report, che sembra si cercherà di scrivere con più attenzione alle policy di adattamento di medio periodo, una o due decadi, lasciando finalmente i presagi secolari a Zaratustra e compagnia. É quello climaticamente breve, in effetti, l’arco temporale in cui ci si può attendere che chi prende le decisioni sia disposto ad ascoltare, perché da quelle decisioni potrebbe dipendere anche il suo futuro politico. Oltre questo limite temporale, si possono fare solo filosofia e grandi dichiarazioni di intenti, cioè, di fatto, niente.
Per prendere decisioni peró ci vogliono informazioni, cioè si deve poter disporre di scenari di previsione attendibili a scala spaziale ridotta, comunemente definita regionale. Si tratta quindi di ampliare lo spazio e il tempo in cui avviene già ora la comunicazione tra chi si occupa di interpretare i capricci dell’atmosfera e chi deve attrezzarsi per mitigarne gli effetti.
Con riferimento al tempo atmosferico, e siamo a scale spaziali e temporali molto limitate, negli ultimi anni sono stati fatti molti progressi. Tanto la previsione, quanto la comunicazione, quanto le azioni che da essa scaturiscono funzionano bene. Certo, ci sono ampi margini di miglioramento ma la strada é quella giusta. Se si allarga un po’ di più la scala spazio-temporale, diciamo fino a un mese, gli sguardi di chi dovrebbe ascoltare si fanno giustamente circospetti, perché in effetti le indicazioni sono molto generiche e funzionano a corrente alternata, anzi, con molti più insuccessi che conferme. Si arriva poi alla scala stagionale, entrando di fatto nell’ambito climatico e lasciando quello meteorologico. E iniziano i dolori veri, perché, piaccia o no, da una stagione all’altra si brancola praticamente nel buio. Quello che abbiamo è poco o niente, e tradurlo in azioni è praticamente impossibile, ove non dannoso perché il segno dell’evoluzione può essere opposto a quello indicato.
Ah, ma per i modelli climatici, quelli veri, quelli che descrivono le dinamiche del sistema di qui a fine secolo, la situazione é diversa, ci dicono. Quel che conta a queste scale spazio-temporali é sostanzialmente il trend dei parametri atmosferici, cosa che questi modelli riuscirebbero a intercettare. Puó darsi, ma per saperlo dobbiamo arrivare a fine secolo. Quello che sappiamo già ora, é che questi strumenti sono del tutto inadatti alle scale spazio-temporali decadali. Per due motivi. Il primo é ovvio: quello che questi modelli prevedevano dieci anni fa per oggi non é accaduto. Il secondo é meno ovvio ma ancora più importante, e necessita di qualche spiegazione.
La condizione irrinunciabile che un sistema di previsione deve rispettare, é che per avere qualche chances di colpire nel segno nel futuro, si devono mostrare buone capacità di riprodurre il passato e di simulare il presente. Se questa condizione non é rispettata c’è poco da fare, non si potrà pensare di disporre di previsioni attendibili, men che meno di fare discorsi di policy che su queste si basino.
Sul blog di Roger Pielke sr, c’è un post molto interessante che raccoglie molti articoli peer reviewed, cioè non di letteratura grigia, per intenderci, nei quali si é cercato di misurare l’attendibilità su base decadale del set di modelli climatici che fornirà lo zoccolo duro del futuro report IPCC. Risultato, neanche a dirlo, zero virgola. Non solo, come ci è capitato di scrivere molto spesso su queste pagine, pare anche che quei modelli, senza le operazioni di tuning con le osservazioni attuali, non riescano proprio a riprodurre il passato recente, sia in termini statistici che di trend. Dal momento che le osservazioni ‘attuali’ del futuro non le abbiamo direi che siano piuttosto scarse le possibilità che questi strumenti siano utilizzabili.
Ora, per evitare che qualcuno salti subito sugli scudi, diciamo subito che il problema non sono è la modellistica, che rappresenta certamente il meglio che abbiamo. Il problema é quello che ci viene messo dentro, cioè il livello di conoscenza del sistema, evidentemente ancora largamente insufficiente per poter essere descritto e riprodotto. Finchè allora i sistemi di simulazione sono impiegati per accrescere la conoscenza attraverso il confronto con la realtà, essi rappresentano uno strumento potente e irrinunciabile. Quando peró si pretende di impiegarli per simulare una realtà futura e virtuale, per paventare disastri e per porre in essere presunte azioni di mitigazione, correzione e adattamento senza avere non dico la certezza, ma quanto meno un minimo di possibilità che la strada indicata sia quella giusta, diventano strumenti molto pericolosi e spacciarne gli output per verità scientifica é sbagliato. Se a farlo é un’organizzazione che ha appena ammesso di avere più di qualche problema di leadership, di bias ideologico e di conflitto di interessi, viene anche il dubbio che il fine sia un altro e con il clima abbia poco a che fare.
A me quello che sembra abnorme è questa necessità di difendere l’ovvio, il buon senso e, in definitiva, il metodo scientifico, non tanto all’interno della politica o dell’informazione, ma proprio nel cuore stesso delle istituzioni scientifiche.
Eppure dato che questa è la realtà dei fatti oggi osservabile, la conseguenza è che nemmeno la Scienza è immune dalla tentazione di sostituire la realtà con un dogmatismo interessato.
Però, forse un po’ sorprendentemente dato il contesto, ma in modo assolutamente normale, gli anticorpi di questa malattia vanno formandosi anche al di fuori della classica torre d’avorio, ricalcando gli schemi sociali tipici della storia umana, e la Realtà prima o poi si riprenderà il suo posto: sopra la Teoria.
All’università, un mio professore, quando doveva farci digerire qualcosa di particolarmente indigesto, invocava il “principio di autorità” e citava qualche insigne studioso del passato. Salvo poi a scherzarci sopra per qualche tempo (da lui, probabilmente, ho imparato che, a volte, prendersi troppo sul serio non è bello) 🙂 . Oggi voglio seguire il suo esempio e partire da una citazione. Ovviamente la citazione deve riguardare un nome altisonante altrimenti vengono meno gli effetti “benefici” della stessa. 🙂
Sembra che il premio Nobel, E. Wigner, amasse dire, a chi gli illustrava le brillanti performances dei computer, che era molto contento che il computer avesse “capito” il problema, ma sarebbe stato più contento se anche lui fosse riuscito a capirlo.
In questa citazione, credo, sia racchiuso tutto il “dramma” della modellazione climatica e non solo. Il computer, purtroppo, è una scatola che, a fronte di dati in ingresso, genera dei risultati. La bontà del risultato, però, dipende da quella dei dati in ingresso, come ci dice anche G. Guidi, e, secondo me, anche dal grado di comprensione del legame fisico che esiste tra i dati in ingresso e quelli in uscita. Il legame fisico è, per il computer, rappresentato da equazioni matematiche, algoritmi, e via cantando che, però, devono schematizzare una cosa fisicamente conosciuta. Per quel che ne possa capire un estraneo alla comunità scientifica come il sottoscritto, mi sembra che il problema della fisica dell’atmosfera (e di tante altre branche dello scibile, ovviamente) sia in questa conoscenza piutosto approssimativa delle basi fisiche che regolano il comportamento del sistema Terra (atmosfera, idrosfera, biosfera e via cantando). Voglio illustrare con un piccolo aneddoto quello che è il mio pensiero.
Diversi mesi fa ho partecipato ad un seminario sulle nuove tecnologie nell’insegnamento della matematica. Il relatore, docente presso una nota Università nazionale, in estrema sintesi, ci invitava a desistere dal far comprendere ai nostri alunni la matematica del continuo, sostituendo derivate, integrali, e parte delle equazioni differenziali, con strumenti matematici basati sulla statistica e sulla probabilità. L’area di un cerchio, esemplificò, poteva essere calcolata mediante un Montecarlo applicato ad un quadrato inscritto nella circonferenza piuttosto che con gli integrali. Egli giustificava tale atteggiamento con la necessità di formare studenti che “comprendessero” un po’ meno, ma fossero più “spendibili” sul mercato del lavoro. Io non condivido quasi nulla di questa impostazione, ma è una mia personale opinione, probabilmente di retroguardia e controcorrente, a cui, però, tengo moltissimo. Noto, però, che il pensiero del docente universitario è piuttosto diffuso in ambito accademico. Questa convinzione nasce anche dalla lettura di quanto scrivono su queste pagine (poco) o su altri siti (molto), diversi esponenti della comunità scientifica (nonostante alcuni anonimi nick name, leggendo i loro commenti, si intuisce chiaramente che ne fanno parte e la cosa NON mi dispiace affatto, anzi!) In diverse occasioni, infatti, mi è capitato di sentirmi dire che l’analisi statistica è l’unico modo per studiare il sistema Terra. L’alternativa non esiste in quanto non abbiamo a disposizione un altro pianeta su cui operare e su questo c’è poco da replicare. Stesso discorso, anche se molto meno condivisibile, per quel che riguarda l’omogeneizzazione delle serie di dati storici delle temperature o di altre grandezze fisiche. Non parliamo, poi, dei “dati” fisici interpolati su griglie di 1200 km di lato. Mi sembra, per concludere, che in questo campo sono molte di più le cose che non comprendiamo di quelle che riusciamo a comprendere. In particolare ignoriamo proprio le leggi fisiche che regolano i complessi fenomeni che caratterizzano il funzionamento del sistema e ci stiamo logorando sul legame tra CO2 e temperatura globale assumendo che essi siano i principali attori di una rappresentazione di cui non riusciamo a comprendere neanche la trama. Di questo, però, non siamo abbastanza consapevoli. E questo è il nocciolo del problema.
Anche in astrofisica ed astronomia, per esempio, è così: poco o nulla sappiamo del nostro universo, della materia barionica, di quella oscura e dell’energia oscura. Anche in questo campo i modelli matematici la fanno da padroni. Se, però, un modello matematico toppa e, per esempio, mi fa dedurre, mediante le analisi dei fenomeni di lente gravitazionale, che nei dintorni di una galassia vi è materia oscura di un certo tipo che, in realtà, non c’è, non me ne preoccupo più di tanto: gli astronomi non cercano di condizionarmi la vita sulla base delle loro conoscenze più o meno esatte della percentuale di materia oscura e dell’influenza che essa può avere sulla gravità. Nessun organismo ONU elabora rapporti per i decisori politici sulla base di articoli referati pubblicati da astronomi.
Ed, infine, voglio chiudere con una domanda a cui, fino ad ora, non ho trovato risposte convincenti: perché un modello dovrebbe individuare il trend secolare di una o più grandezze fisiche mentre non riesce a individuarne il trend decennale?
Ciao, Donato.
Donato,
molti nomi sono sbagliati, l’atmosfera, per esempio, NON si comporta come una serra, per la semplice ragione (semplificando) che ha al suo interno dei sistemi di distribuzione del calore (venti e correnti oceaniche) che non ci sono nelle serre, e nelle serre l’aria è fisicamente costretta a rimanere rinchiusa, mentre l’effetto serra intercetta la (sola) radiazione, ma non può impedire fisicamente ad una molecola di muoversi nell’aria.
La temperatura “percepita” dà l’idea di qualcosa legato alle impressioni personali delle persone, come se fosse calcolata intervistando le persone: “quanti gradi ti sembra che ci siano ?” ma non è così.
Anche la parola “elettronico” in “calcolatore elettronico” è fuorviante, perché l’elettronica non fornisce “intelligenza” o “logica”, ma “velocità” e “capacità” di memorizzazione di massa. E’ possibile fare un computer senza parti elettroniche, tutto meccanico, per quanto lento e con poca memoria di massa, come la macchina differenziale di Charles Babbage
http://it.wikipedia.org/wiki/Charles_Babbage
La logica e l’intelligenza non sono nell’elettronica, come non sono nell’inchiostro di una penna, o nella carta di un libro. Non basta una bella penna per scrivere un capolavoro, e un libro non è da nobel per la rilegatura o la carta patinata, ma per ciò che qualche essere umano vi ha scritto.
Quindi, un programma, un modello climatico, non sono resi perfetti e privi di errori dall’elettronica del computer, come una penna non corregge una frase sbagliata, e la carta di un libro non si oppone a che sopra vi siano scritte falsità. C’è ancora chi si fa incantare dal fatto che i modelli girino su computer, ma sono sempre comunque un prodotto dell’intelligenza umana, con tutti i suoi limiti. Se qualcuno ha fatto una modellazione della realtà, è un buon punto di partenza, certamente imperfetto, che va corretto, e corretto ancora confrontandolo con la realtà, a cui lui, il modello, deve piegarsi, e non viceversa. Credo che tra qualche anno la gente si domanderà come sia stato possibile che invece si siano corretti i dati per renderli compatibili ai risultati dei modelli, e qualcuno sarà chiamato a rispondere e a risponderne.
Per esempio, chi ha stabilito che la sensitivity doveva essere 3, e non 0,5 per esempio ? Non l’ha certamente stabilito l’elettronica, e non è un’iniziativa del computer, ma un dato immesso da qualcuno, persona umana, con nome e cognome, e che ha imposto un dato sbagliato.
Secondo me.